Trợ lý ảo Alexa có thể bắt chước giọng nói

Amazon cho biết tính năng bắt chước giọng nói bất kỳ sẽ sớm được đưa vào Alexa, nhưng nhiều người vẽ ra viễn cảnh rùng rợn với tính năng này.

Tại sự kiện Amazon re:MARS 2022 về trí tuệ nhân tạo tuần này, Amazon mô tả hệ thống AI mới cho phép trợ lý ảo Alexa có thể học theo bất kỳ giọng nói nào sau khi nghe đoạn ghi âm thời lượng khoảng một phút của người đó.

Theo Phó chủ tịch cấp cao Amazon Rohit Prasad, đây có thể xem như một công cụ “hồi sinh” người đã khuất lại bằng phương tiện kỹ thuật số, giúp người dùng có thể lưu giữ thêm ký ức, nhất là với những ai đã qua đời trong đại dịch.

Một số mẫu loa hỗ trợ Alexa của Amazon. Ảnh: Amazon

Một số mẫu loa hỗ trợ Alexa của Amazon. Ảnh: Amazon

Trong video trình diễn, một đứa trẻ yêu cầu Alexa đọc cho cậu nghe câu chuyện Phù thủy xứ Oz bằng giọng của người bà đã mất. Alexa chuyển từ giọng mặc định sang một giọng nhẹ nhàng hơn. “Dù AI không thể xóa bỏ nỗi đau mất mát, nó chắc chắn có thể làm cho ký ức tồn tại lâu hơn trong mỗi người”, Prasad nói.

Theo ông, tính năng bắt chước giọng nói là mục tiêu mới Amazon đang khám phá, dựa trên tiến bộ gần đây trong công nghệ chuyển văn bản thành giọng nói. Công nghệ hứa hẹn sẽ tạo ra giọng chất lượng cao và đòi hỏi ít dữ liệu, thay vì phải cần đến hàng giờ ghi âm trong phòng thu chuyên nghiệp.

Dù vậy, tính năng mới của Alexa nhận được nhiều ý kiến trái chiều. Trên mạng xã hội, không ít ý kiến đề cập đến yếu tố rùng rợn của công nghệ, ví dụ dùng lời nói của người đã khuất để hù dọa người khác. Bên cạnh đó, công nghệ này có thể bị sử dụng sai mục đích, như giả giọng người khác để nói điều gì đó dù họ không hề nói như vậy.

“Chắc chắn có những lợi ích của công nghệ chuyển đổi giọng nói mà Amazon đang phát triển, nhưng chúng cũng có thể bị lạm dụng. Kẻ xấu có thể giả giọng thành viên trong gia đình hoặc bạn bè để gọi điện yêu cầu chuyển tiền, hay một người mạo danh giám đốc và yêu cầu một nhân viên thực hiện giao dịch”, Siwei Lyu, giáo sư khoa học máy tính và kỹ thuật của Đại học Buffalo, người có thâm niên nghiên cứu liên quan đến deepfake, nói với Bloomberg.

Trước Amazon, một số công ty khác cũng từng phát triển công nghệ bắt chước người thật sau khi họ qua đời. Chẳng hạn, ứng dụng Replika có thể mô phỏng cách nói chuyện của một người, hay HereAfter AI bắt chước tính cách ai đó dựa trên câu chuyện về cuộc đời họ, sau đó có thể đối đáp với người khác qua loa thông minh.

Hầu hết các chuyên gia lo ngại những ứng dụng kể trên có thể gây ra tranh cãi về mặt đạo đức. Một số cho rằng công nghệ bắt chước con người cần chịu giám sát chặt chẽ hơn từ các cơ quan quản lý.

Bảo Lâm

Nguồn bài viết

Chia sẻ bài báo