“Có cả sự phấn khích và sợ hãi. Kịch bản về ngày tận thế vì AI có thể sẽ tương tự nội dung được mô tả trong phim Kẻ hủy diệt“, Ivana Bartoletti, chuyên gia bảo vệ dữ liệu và quyền riêng tư, đồng thời sáng lập tổ chức Women Leading in AI Network, nhận định trên Guardian.
Từ năm ngoái, mô hình AI tạo sinh đã nở rộ như ChatGPT, Dall-E của OpenAI, Bard của Google, hay Midjourney. Tuy nhiên, những công cụ này có thể tạo ra kết quả thiên kiến, như ưu tiên đàn ông hơn phụ nữ, nhận diện khuôn mặt không chính xác đối với người da màu, hay cho rằng các gia đình nhập cư có nguy cơ lừa đảo cao hơn, điều có thể đẩy nhiều người vào cảnh khốn cùng.
“Đây là những vấn đề xã hội chúng ta đã nhận ra, cho thấy cần đạt được sự đồng thuận về hướng đi đúng đắn cho AI, sử dụng có trách nhiệm công nghệ này và nên áp đặt những ràng buộc lên chúng”, bà Bartoletti viết.
Đầu tháng 5, Geoffrey Hinton, một trong những người tiên phong về AI, đã từ chức tại Google. Ông từng nhận giải thưởng Turing 2018, được ví như “Nobel Tin học”, cho nghiên cứu đột phá về trí tuệ nhân tạo.
“Tôi rời Google để có thể chỉ trích Google. Thực tế, tôi rời đi để có thể nói về sự nguy hiểm của AI mà không phải xem xét điều này ảnh hưởng đến hãng thế nào”, ông viết trên Twitter ngày 1/5.
Theo Hinton, mối nguy trước mắt AI đang tạo ra là ảnh, video, văn bản giả mạo tràn ngập trên Internet, hay tương lai gần là thay đổi sâu sắc thị trường việc làm. Cuối cùng, ông lo AI sẽ trở thành mối đe dọa cho văn minh nhân loại khi có thể xử lý lượng dữ liệu khổng lồ.
“Khi chúng bắt đầu biết viết code và chạy dòng mã của riêng mình, những con robot sát thủ sẽ xuất hiện ngoài đời thực. AI có thể thông minh hơn con người. Nhiều người bắt đầu tin vào điều này. Tôi đã sai khi nghĩ phải 30-50 năm nữa AI mới đạt được tiến bộ này. Nhưng giờ mọi thứ thay đổi quá nhanh”, Hinton nói với New York Times.
Giữa tháng 4, CEO Google Sundar Pichai cũng nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy và xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI. “Nó có thể là thảm họa nếu triển khai sai. Một ngày nào đó, AI sẽ có những khả năng vượt xa trí tưởng tượng của con người và chúng ta chưa thể hình dung hết những điều tồi tệ nhất có thể xảy ra”, ông nói với CBS.
Tương tự, Sam Altmam, người đồng sáng lập và CEO của OpenAI, cho rằng AI có thể mang lại lợi ích to lớn, nhưng gây nỗi lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó “ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị”. Ông liên tục nhắc đến cảm giác lo lắng về AI và thừa nhận đã sốc vì ChatGPT quá phổ biến.
Trong hội thảo của Diễn đàn Kinh tế Thế giới ngày 3/5 ở Geneva, chuyên gia Michael Schwarz của Microsoft cũng nhấn mạnh AI sẽ gây ra thiệt hại nếu bị sử dụng sai mục đích, như gửi thư rác, lừa đảo hoặc cố gắng can thiệp hệ thống bầu cử. “Tôi tin AI sẽ được sử dụng bởi những kẻ xấu, và vâng, nó có thể sẽ gây ra thiệt hại thực sự”, Schwarz nói. “Trước khi thấy tác hại, chúng ta cần tự hỏi một câu đơn giản: Chúng ta có thể điều chỉnh AI theo cách nào để có được những điều tốt đẹp?”.
Các chuyên gia cũng đang hướng đến một mô hình cao hơn là trí tuệ nhân tạo tổng hợp (AGI). Theo một khảo sát của Đại học Stanford tháng trước, 56% các nhà khoa học máy tính và nhà nghiên cứu AI tin AI tạo sinh sẽ bắt đầu chuyển dịch sang AGI trong tương lai gần.
Theo Fortune, AGI được đánh giá là phức tạp hơn nhiều so với mô hình AI tạo sinh nhờ khả năng tự nhận thức được những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo sợ trong tương lai.
Cũng theo kết quả khảo sát, khoảng 58% chuyên gia AI đánh giá AGI là “mối quan tâm lớn”, 36% nói công nghệ này có thể dẫn đến “thảm họa cấp hạt nhân”. Một số chuyên gia cho biết AGI có thể đại diện cho cái gọi là “điểm kỳ dị về công nghệ” – điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.
“Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc”, Demis Hassabis, CEO DeepMind – công ty về AI của Google, nói với Fortune. “Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị”.
Cuối tháng 3, hơn 1.000 người được xem là “giới tinh hoa” trong lĩnh vực công nghệ, trong đó có tỷ phú Elon Musk, đồng sáng lập Apple Steve Wozniak hay người được mệnh danh là “bố già AI” Yoshua Bengio đã ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong sáu tháng để cùng xây dựng một bộ quy tắc chung về AI.
Theo Bartoletti, dù phấn khích lẫn sợ hãi, nên tìm giải pháp để kiểm soát AI hơn là ngăn sự phát triển của công nghệ này. AI có tiềm năng rất lớn trong nhiều lĩnh vực, như phân tích khối u trên ảnh chụp CT có phải ung thư hay không. Năm ngoái, AI của DeepMind phân tích thành công cấu trúc của hầu hết loại protein mà giới khoa học đã tìm thấy, giải quyết một trong những thách thức lớn nhất trong lĩnh vực sinh học gần 50 năm qua.
“Chúng ta không nên mù quáng hoặc lo ngại trước các cảnh báo về AI. Thực tế nó có những mặt tốt, cần được nhìn nhận”, bà nói. “Các quy tắc mang tính toàn cầu là cần thiết và quan trọng nếu muốn áp dụng sức mạnh mới vào đời sống”.
Nhiều chính phủ trên thế giới đã bắt đầu chú ý đến việc kiểm soát AI, như Mỹ, Liên minh châu Âu, Ấn Độ, Trung Quốc. Trong một cuộc họp với các công ty công nghệ hôm 2/5, Tổng thống Mỹ Joe Biden nhấn mạnh những doanh nghiệp này cần đảm bảo sản phẩm AI phải được an toàn. Ngày 30/4, Liên Hợp Quốc cũng công bố Thỏa thuận kỹ thuật số toàn cầu nhằm đảm bảo quyền con người luôn được duy trì trong thời đại kỹ thuật số.
Bảo Lâm
Nguồn Bài Viết: https://vnexpress.net/noi-lo-ve-tham-hoa-ai-4601076.html