Các ông lớn công nghệ tìm cách tạo ‘công tắc tắt AI’

Ngày 22/5, 16 công ty AI lớn, trong đó có Anthropic, Microsoft, OpenAI và các đại diện từ hơn 10 quốc gia và Liên minh châu Âu đã tham gia hội nghị thượng đỉnh tại Seoul nhằm đưa ra những quy định về phát triển AI một cách an toàn và có trách nhiệm.

Một trong những kết quả của cuộc họp là các bên đã đồng thuận với chính sách được ví như “công tắc khẩn cấp” đối với AI. Trong đó, các công ty sẽ ngừng phát triển mô hình AI tiên tiến nhất của mình nếu chúng vượt qua ngưỡng rủi ro nhất định. Tuy nhiên, hiện chưa rõ mức độ hiệu quả của chính sách do thỏa thuận giữa các công ty không có giá trị pháp lý, trong khi ngưỡng rủi ro cũng chưa được xác định cụ thể.

Bản thân các công ty AI cũng thừa nhận nguy cơ liên quan đến trí tuệ nhân tạo. Chặng đường xây dựng quy định về an toàn AI toàn cầu sẽ tiếp tục với một hội nghị thượng đỉnh khác diễn ra đầu năm sau tại Pháp. Tại đây, các bên tham gia sẽ đưa ra định nghĩa cụ thể về ngưỡng rủi ro đối với AI và các hành động cần thiết trong quản lý – một bước tiến so với quá trình tương đối mờ nhạt hiện nay.

Các ông lớn công nghệ muốn có một nút bấm khẩn cấp đề phòng các mô hình AI phát triển vượt ngưỡng rủi ro. Ảnh minh họa: Blue Planet Studio