Đăng vào ngày: 04/07/2022
Amazon vừa cho biết tính năng bắt chước giọng nói bất kỳ sẽ sớm được trang bị trên trợ lý ảo Alexa. Tuy nhiên nhiều người dùng lại vẽ ra viễn cảnh rùng rợn với tính năng này. Cùng Vu Hoang Telecom tìm hiểu sau đây nhé!
Trong khuôn khổ sự kiện Amazon re:MARS 2022 về trí tuệ nhân tạo, tập đoàn đã mô tả hệ thống AI mới. Cho phép trợ lý ảo Alexa học theo bất kỳ giọng nói nào. Chỉ cần nghe đoạn ghi âm với thời lượng khoảng 1 phút.
Rohit Prasad – Phó chủ tịch cấp cao của Amazon cho biết đây có thể được xem là công cụ hồi sinh người đã mất bằng phương tiện kĩ thuật số. Giúp người dùng lưu lại ký ức, đặc biệt là những ai đã không may qua đời vì dịch bệnh.
Trong video trình diễn, một đứa bé đã yêu cầu trợ lý ảo đọc cho cậu câu chuyện Phù thủy xứ Oz. Bằng giọng của người bà đã qua đời của cậu. Alexa nhanh chóng chuyển sang giọng nhẹ nhàng ôn tồn hơn so với giọng mặc định. Mặc dù không thể xóa được nỗi đau hay mất mát. Nhưng nó có thể giúp cho ký ức tồn tại lâu hơn trong mỗi người.
Có thể bạn quan tâm: Smartphone màn hình gập nào sẽ ra mắt nửa cuối năm 2022?
Tính năng bắt chước giọng nói là mục tiêu mới mà Amazon đang khám phá. Dựa trên cơ sở những tiến bộ gần đây trong công nghệ chuyển văn bản thành giọng nói. Hứa hẹn sẽ tạo nên giọng chất lượng cao, không đòi hỏi nhiều dữ liệu. Thay vì phải ghi âm hàng giờ trong phòng thu chuyên nghiệp.
Tuy vậy, tính năng mới này của Alexa nhận phải nhiều ý kiến trái chiều. Trên các phương tiện xã hội không ít ý kiến trình bày đến yếu tố rùng rợn của công nghệ. Chẳng hạn dùng lời nói của người đã mất để hù dọa người khác. Mặt khác, công nghệ này còn có thể bị dùng sai mục đích. Giả giọng người khác với mục đích xấu mặc dù người đó không hề nói như vậy.
Giáo sư khoa học máy tính và kỹ thuật của Đại học Buffalo – Siwei Lyu đưa ra ý kiến cho rằng chắc chắn sẽ có những lợi ích. Từ công nghệ chuyển đổi giọng nói mà Amazon đang phát triển. Song điều này cũng có thể bị lợi dụng. Kẻ xấu có khả năng giả giọng thành viên gia đình hay người thân, bạn bè để yêu cầu chuyển tiền. Hoặc thực hiện những giao dịch bất hợp pháp trái phép.
Trước Amazon cũng đã có một số công ty khác từng phát triển công nghệ bắt chước người thật khi người đó qua đời. Ứng dụng Replika có khả năng mô phỏng cách nói chuyện của một người. HereAfter AI có khả năng bắt chước tính cách ai đó dựa trên câu chuyện cuộc đời họ. Sau đó có thể đối đáp với người khác bằng loa thông minh.
Xem thêm: Zalo thu phí người dùng. Có thật không?
Đa số các chuyên gia đều lo ngại rằng những ứng dụng trên đây sẽ gây tranh cãi về mặt đạo đức. Số khác thì cho rằng công nghệ bắt chước con người phải chịu sự giám sát một cách chặt chẽ hơn từ cơ quan quản lý.
Trên đây là những thông tin liên quan đến trợ lý ảo Alexa. Và tương lai về khả năng bắt chước giọng nói. Hy vọng đã mang đến cho người dùng những thông tin bổ ích và lý thú. Tham khảo thêm những bài viết mới nhất được cập nhật mỗi ngày tại vuhoangtelecom.vn. Hotline hỗ trợ 1900 9259.