Các công ty AI hàng đầu đang hợp tác với chính phủ nhằm xác định nguy cơ tiềm ẩn từ AI và bàn cách tạo công tắc tắt AI khi cần thiết.
Ngày 22/5, 16 công ty AI lớn, trong đó có Anthropic, Microsoft, OpenAI và các đại diện từ hơn 10 quốc gia và Liên minh châu Âu đã tham gia hội nghị thượng đỉnh tại Seoul nhằm đưa ra những quy định về phát triển AI một cách an toàn và có trách nhiệm.
Một trong những kết quả của cuộc họp là các bên đã đồng thuận với chính sách được ví như “công tắc khẩn cấp” đối với AI. Trong đó, các công ty sẽ ngừng phát triển mô hình AI tiên tiến nhất của mình nếu chúng vượt qua ngưỡng rủi ro nhất định. Tuy nhiên, hiện chưa rõ mức độ hiệu quả của chính sách do thỏa thuận giữa các công ty không có giá trị pháp lý, trong khi ngưỡng rủi ro cũng chưa được xác định cụ thể.
Hội nghị lần này là sự tiếp nối của hội nghị an toàn AI tại Bletchley Park (Anh) tháng 10 năm ngoái, trong đó có sự tham gia của nhiều nhà phát triển AI, nhưng đã bị chỉ trích vì thiếu các cam kết và biện pháp cụ thể.
Từ khoa học viễn tưởng đến đời thực, giới nhà văn và nhà nghiên cứu đã cảnh báo về rủi ro của trí tuệ nhân tạo trong vài thập kỷ qua. Họ lo ngại AI có thể trở nên thông minh hơn và cuối cùng sẽ quay lại tấn công con người. Một số đề cập viễn cảnh như trong phim Kẻ hủy diệt (1984), trong đó một người máy du hành ngược thời gian để giết một phụ nữ vì sau này con trai của bà sẽ chiến đấu chống lại hệ thống AI.
“AI mang đến cơ hội to lớn để thay đổi nền kinh tế và giải quyết các thách thức lớn của xã hội, nhưng tiềm năng này chỉ có thể phát huy nếu chúng ta xác định được những rủi ro mà công nghệ phức tạp này có thể̉ gây ra”, Fortune dẫn lời ông Michelle Donelan, Bộ trưởng Công nghệ của Anh.
Bản thân các công ty AI cũng thừa nhận nguy cơ liên quan đến trí tuệ nhân tạo. Trong bài đăng trên blog trước đó, OpenAI cho biết: “Siêu trí tuệ AGI có nguy cơ bị sử dụng sai mục đích, gây hậu quả nghiêm trọng và làm rối loạn trật tự xã hội. Vì AGI có nhiều lợi ích cho việc phát triển xã hội, chúng tôi không mong muốn ngừng phát triển công nghệ này. Thay vào đó, nên tìm cách sử dụng AI một cách đúng đắn”.
Tuy nhiên hiện nay, nỗ lực xây dựng khuôn khổ pháp lý toàn cầu về quản lý AI vẫn rời rạc. Khung chính sách của Liên Hợp Quốc yêu cầu các quốc gia bảo vệ và ngăn rủi ro AI đối với nhân quyền, giám sát việc sử dụng dữ liệu cá nhân, nhưng lại không có hiệu lực về mặt pháp lý.
Trong khi đó, các công ty AI cũng bắt đầu thành lập tổ chức riêng. Tuần này, Amazon và Meta đã gia nhập tổ chức Frontier Model Foundation với mục tiêu thúc đẩy sự an toàn của mô hình AI tiên phong, với các thành viên sáng lập là Anthropic, Google, Microsoft và OpenAI. Tuy vậy, tổ chức cũng chưa đưa ra bất kỳ chính sách cụ thể nào.
Chặng đường xây dựng quy định về an toàn AI toàn cầu sẽ tiếp tục với một hội nghị thượng đỉnh khác diễn ra đầu năm sau tại Pháp. Tại đây, các bên tham gia sẽ đưa ra định nghĩa cụ thể về ngưỡng rủi ro đối với AI và các hành động cần thiết trong quản lý – một bước tiến so với quá trình tương đối mờ nhạt hiện nay.