Nhà nghiên cứu trí tuệ nhân tạo (AI) hàng đầu cảnh báo về sự tuyệt chủng của nhân loại trước AI.
Eliezer Yudkowsky – nhà nghiên cứu AI nổi tiếng người Mỹ – cho rằng, nhân loại chưa được chuẩn bị để sống sót khi đọ sức với trí tuệ nhân tạo thông minh hơn nhiều.
Ngừng phát triển các hệ thống trí tuệ nhân tạo tiên tiến trên toàn cầu và trừng phạt nghiêm khắc những người vi phạm lệnh cấm là cách duy nhất để cứu loài người khỏi sự tuyệt chủng – ông Yudkowsky cảnh báo.
Eliezer Yudkowsky – người đồng sáng lập Viện Nghiên cứu Trí tuệ Máy móc (MIRI) – viết bài bình luận trên tạp chí TIME, giải thích lý do ông không ký vào bản kiến nghị kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất sáu giờ”.
GPT-4 là mô hình ngôn ngữ đa phương thức lớn, được OpenAI phát hành vào đầu tháng 3.
Bản kiến nghị có chữ ký của tỉ phú Elon Musk và Steve Wozniak của Apple.
Ông Yudkowsky lập luận, bản kiến nghị “yêu cầu quá ít để giải quyết” vấn đề do sự phát triển nhanh chóng và không kiểm soát của AI gây ra.
Yudkowsky viết: “Rất có thể kết quả của việc xây dựng một AI thông minh siêu phàm là mọi người trên Trái đất sẽ chết theo đúng nghĩa đen”.
Ông Yudkowsky lập luận, việc sống sót sau cuộc chạm trán với một hệ thống máy tính “không quan tâm đến chúng ta cũng như cuộc sống có tri giác nói chung” sẽ đòi hỏi “sự chính xác và chuẩn bị cũng như những hiểu biết khoa học mới” mà nhân loại đang thiếu và khó có thể đạt được trong tương lai gần.
“Một AI đủ thông minh sẽ không bị giới hạn lâu trong máy tính” – ông Yudkowsky cảnh báo. Ông giải thích, việc có thể gửi email các chuỗi ADN đến các phòng thí nghiệm để sản xuất protein có thể sẽ cho phép AI “xây dựng các dạng sống nhân tạo hoặc khởi động thẳng đến quá trình sản xuất phân tử hậu sinh học” và bước ra thế giới.
Theo nhà nghiên cứu, một lệnh cấm vô thời hạn và trên toàn thế giới đối với các hoạt động đào tạo AI lớn phải được đưa ra ngay lập tức. Ông nhấn mạnh, không thể có ngoại lệ, kể cả đối với chính phủ hay quân đội.
Yudkowsky cho rằng, các thỏa thuận quốc tế nên được ký kết để đặt mức trần về sức mạnh tính toán mà bất kỳ ai cũng có thể sử dụng để đào tạo các hệ thống như vậy.
“Nếu thông tin tình báo nói rằng, một quốc gia bên ngoài thỏa thuận đang xây dựng cụm GPU (đơn vị xử lý đồ họa), xung đột súng đạn giữa các quốc gia không sợ bằng việc thỏa thuận bị vi phạm” – ông viết.
Ông viết thêm: Mối đe dọa từ trí tuệ nhân tạo lớn đến mức cần phải làm rõ “trong ngoại giao quốc tế rằng việc ngăn chặn các kịch bản tuyệt chủng vì AI được coi là ưu tiên hàng đầu so với việc ngăn chặn một cuộc chiến tranh hạt nhân toàn diện”.
T.P