Các nhà quản lý châu Âu đưa ra các chiến lược đầu tiên về trí tuệ nhân tạo từ năm 2018 và sắp tiến tới trở thành nơi đầu tiên trên thế giới công bố một đạo luật về trí tuệ nhân tạo, với trọng tâm là hướng đến việc quản lý các rủi ro mà AI có thể tạo ra cho xã hội.
Tháng 04/2018, Uỷ ban châu Âu lần đầu tiên công bố một chiến lược tổng thể về trí tuệ nhân tạo (AI), với lời khẳng định, A.I không còn là viễn tưởng mà đã là một phần trong cuộc sống nhân loại, là một thực tế đang biến đổi thế giới, biến đổi xã hội và các nền kinh tế giống như cách mà động cơ hơi nước hay điện đã làm trong quá khứ. Châu Âu nhận định, A.I sẽ giúp nhân loại giải được các thách thức toàn cầu lớn nhất như điều trị các bệnh nan y, chống biến đổi khí hậu nhưng đồng thời A.I cũng tạo ra những nguy cơ lớn chưa từng có nếu không được quản lý đúng đắn. Vì thế, chiến lược A.I của châu Âu cần phải được xây dựng theo cách tiếp cận dựa trên việc quản lý rủi ro, tức vừa tận dụng được những thế mạnh lớn nhất của A.I nhưng cũng liên tục giám sát các rủi ro mà A.I có thể tạo ra.
Cơn sốt Chat GPT đầu năm 2023 đã củng cố thêm cách tiếp cận này của các cơ quan quản lý châu Âu, khi việc sử dụng phần mềm A.I này đã gây nên những cuộc tranh luận gay gắt tại nhiều quốc gia châu Âu trên các khía cạnh như độc quyền thông tin, lan truyền tin giả, tổn hại đạo đức nghề nghiệp của nhiều ngành nghề hay nghiêm trọng nhất là thao túng quan điểm chính trị của người dùng dựa trên các nguồn tin không tin cậy. Đó là lí do mà một số chính phủ châu Âu, đầu tiên là Italia, đã ngay lập tức cấm sử dụng Chat GPT. Đến tháng 05/2023, Nghị viện châu Âu đã công bố dự luật đầu tiên do Uỷ ban thị trường nội địa châu Âu và Uỷ ban các quyền tự do công dân soạn thảo, vạch ra những quy định pháp lý đầu tiên để quản lý A.I, với mục tiêu giúp châu Âu trở thành nơi đầu tiên trên thế giới có một bộ luật về A.I.
Trọng tâm trong dự luật A.I của Nghị viện châu Âu là quản lý rủi ro của A.I. Các hệ thống A.I sẽ được xếp hạng và quản lý dựa trên mức độ rủi ro mà hệ thống đó có thể tạo ra. Các hệ thống A.I có mức rủi ro không thể chấp nhận đối với an toàn của người dân, như các A.I trong các lĩnh vực giám sát sinh học, nhận diện cảm xúc, dự đoán hành vi phạm tội, xếp hạng công dân dựa trên hành vi xã hội, tính cách, địa vị kinh tế…. sẽ bị cấm sử dụng. Đặc biệt, các hệ thống A.I có thể tác động đến cử tri trong các chiến dịch vận động tranh cử hay trong việc gợi ý xu hướng người dùng trên các nền tảng mạng xã hội cũng sẽ bị châu Âu xếp vào danh sách “nguy cơ cao”, tức sẽ bị hạn chế và giám sát gắt gao.
Đối với các nhà phát triển A.I, dự luật của châu Âu cũng yêu cầu các phần mềm A.I tạo sinh, điển hình là Chat GPT, cần phải minh bạch tối đa nội dung cũng như mô hình xây dựng A.I, nhằm hạn chế việc sử dụng các nội dung phi pháp, sai lệch hay việc vi phạm bản quyền và dữ liệu cá nhân.
T.P