Sáng kiến mới của các chính phủ nhằm quản lý AI

Mỹ, Anh và hơn 10 quốc gia khác đã công bố thỏa thuận quốc tế về an toàn trí tuệ nhân tạo (AI). Đây là sáng kiến mới nhất trong một loạt sáng kiến của các chính phủ nhằm quản lý rủi ro từ sự phát triển của AI, song vẫn bảo đảm công nghệ tiên tiến này đem lại hiệu quả, an toàn, trong bối cảnh bài toán về quản lý AI đặt ra nhiều câu hỏi khó đối với thế giới.
0:00 / 0:00
0:00
Ảnh minh họa. (Nguồn: Barrons.com)
Ảnh minh họa. (Nguồn: Barrons.com)

Trước sự phát triển như vũ bão của công nghệ với bước đột phá AI, vốn đang có sức ảnh hưởng ngày càng lớn trong ngành công nghiệp và xã hội nói chung, nhiều quốc gia đang ráo riết tìm cách quản lý sử dụng công nghệ này. Cùng với những lợi ích không thể phủ nhận, sự phát triển của hệ thống AI siêu thông minh đang đặt ra mối lo ngại về những hậu quả khôn lường nếu AI không được kiểm soát, hoặc bị sử dụng phục vụ những mục đích xấu. Trong nỗ lực quản lý AI, châu Âu đã đi trước Mỹ về các quy định liên quan. Các nhà lập pháp ở châu Âu đã soạn thảo các quy tắc về AI. Pháp, Đức và Italia đã đạt thỏa thuận về cách quản lý AI.

Chính quyền Tổng thống Mỹ Joe Biden cũng hối thúc các nhà lập pháp đưa ra quy định về AI, nhưng Quốc hội chia rẽ nên đạt được ít tiến bộ trong việc này. Nhà trắng tìm cách giảm rủi ro từ AI cho người tiêu dùng, người lao động và các nhóm thiểu số, đồng thời củng cố an ninh quốc gia bằng sắc lệnh toàn diện đầu tiên về AI hồi tháng 10, theo đó các công ty phát triển AI phải thông báo cho Chính phủ Mỹ theo Đạo luật sản xuất quốc phòng (DPA) nếu chương trình AI đang phát triển gây ra các rủi ro về an ninh quốc gia, nền kinh tế địa phương hoặc ảnh hưởng đến sức khỏe người dùng.

Thỏa thuận quốc tế mới là thỏa thuận chi tiết đầu tiên về cách thức bảo đảm công nghệ AI được sử dụng một cách an toàn, hối thúc các công ty công nghệ phải tạo ra các hệ thống AI an toàn ngay trong bước thiết kế. Thỏa thuận không mang tính ràng buộc và chủ yếu đưa ra các khuyến nghị chung, như giám sát hành vi lạm dụng AI, bảo vệ dữ liệu...

Theo nhận định của bà Jen Easterly, Giám đốc Cơ quan An ninh Mạng và An ninh Cơ sở hạ tầng Mỹ, những nguy cơ tiềm ẩn từ sự phát triển nhanh chóng của AI đồng nghĩa với việc các biện pháp bảo vệ cần phải được tích hợp vào hệ thống ngay từ đầu, thay vì tìm cách xử lý hậu kỳ.

Quản lý AI đang là vấn đề rất được quan tâm khi các hội nghị bàn về vấn đề này liên tiếp được tổ chức, các quy định liên quan được đưa ra. Hội nghị cấp cao toàn cầu đầu tiên về an toàn AI đã được tổ chức tại Anh để đánh giá những nguy cơ từ AI và thảo luận về cách giảm những nguy cơ này thông qua hợp tác quốc tế. Hội nghị đã ra Tuyên bố về an toàn AI với chữ ký của đại diện 27 quốc gia, với 5 mục tiêu bao trùm hướng tới phát huy tinh thần đồng thuận và trách nhiệm chung trong hợp tác quốc tế về sử dụng và nghiên cứu AI an toàn, đặc biệt là thông qua tăng cường hợp tác khoa học.

Hội nghị Liên minh AI châu Âu tại Tây Ban Nha thảo luận chủ đề “Phát triển AI một cách đáng tin cậy trên toàn cầu”, nhằm thiết lập đối thoại cởi mở giữa các nhà hoạch định chính sách về chiến lược AI của Liên minh châu Âu (EU), với mục đích tận dụng cao nhất các cơ hội do AI mang lại và giải quyết những thách thức liên quan.

Nhóm các nước công nghiệp phát triển (G7) cũng thống nhất Bộ Quy tắc ứng xử 11 điểm dành cho các công ty phát triển AI, hướng dẫn quản lý những hệ thống AI tiên tiến nhất và hệ thống AI tạo sinh. Và Tổng Thư ký Liên hợp quốc Antonio Guterres công bố thành lập Ban cố vấn AI quy tụ 39 thành viên là các giám đốc công ty, quan chức chính phủ và các học giả, với nhiệm vụ đưa ra hướng quản lý AI ở tầm quốc tế.

Ngoài nỗ lực của từng quốc gia, hợp tác quốc tế rộng rãi hơn trong quản lý là cần thiết nhằm bảo đảm phát huy tính ưu việt của AI và ngăn chặn nguy cơ tiềm ẩn khi siêu công nghệ này được ứng dụng trong nhiều lĩnh vực.