Theo Reuters, sắc lệnh yêu cầu các công ty khi phát triển các hệ thống AI, nếu bị xếp vào nhóm “có nguy cơ gây rủi ro cho an ninh và nền kinh tế quốc gia, sức khỏe hoặc an toàn cộng đồng”, sẽ phải chia sẻ kết quả kiểm tra an toàn với Chính phủ Mỹ trước khi công bố. Sắc lệnh cũng đặt ra yêu cầu các cơ quan chức năng ở Mỹ thiết lập hệ tiêu chuẩn, công cụ và thử nghiệm nhằm bảo đảm các hệ thống AI an toàn, bảo mật và đáng tin cậy.
Với việc ký sắc lệnh này, người đứng đầu Nhà trắng đã thông qua một “chiến lược” ứng xử cho các cơ quan quản lý ở Mỹ trong trường hợp phải đối mặt sự bùng nổ AI, cũng như xử lý khủng hoảng do công nghệ mới này có thể gây ra. “Để hiện thực hóa cam kết về việc quản lý AI và tránh rủi ro, chúng ta cần quản lý công nghệ này… Trong tay kẻ xấu, AI có thể giúp tin tặc khai thác các lỗ hổng trong phần mềm và gây ảnh hưởng nghiêm trọng tới đời sống xã hội”, ông Biden nhấn mạnh.
Đồng thời, chính quyền Mỹ kêu gọi các bên đưa ra hướng dẫn cụ thể để thúc đẩy công bằng và bảo đảm quyền lợi chính đáng cho người dân để được bảo mật thông tin cá nhân. Theo sắc lệnh, Nhà trắng kêu gọi sử dụng AI có trách nhiệm, đồng thời yêu cầu lập báo cáo về tác động tiềm tàng của AI đối với thị trường lao động. Tổng thống Mỹ cũng chỉ đạo soạn thảo các nguyên tắc và giải pháp để giảm tác hại, tối đa hóa lợi ích của AI đối với người lao động. Ngoài ra, sắc lệnh khuyến khích xúc tiến nghiên cứu AI trên toàn nước Mỹ, thúc đẩy hệ sinh thái AI “công bằng, cởi mở và cạnh tranh”.
Sắc lệnh trên là bước đi mới nhất của chính quyền Tổng thống Biden nhằm thiết lập các khuôn khổ quản lý AI trong bối cảnh lĩnh vực này đã có sự phát triển mạnh mẽ thời gian qua. Trước đó, hồi đầu năm, các “gã khổng lồ” công nghệ đang theo đuổi lĩnh vực AI như Tập đoàn Alphabet sở hữu Google, tập đoàn mẹ của Facebook là Meta hay Công ty OpenAI được Microsoft đầu tư đã đưa ra các cam kết tự nguyện kiểm duyệt nội dung do AI tạo ra để giúp công nghệ an toàn hơn.
Theo Politico, ông Max Tegmark - Chủ tịch Viện Nghiên cứu chính sách công nghệ Future of Life Institute của Mỹ đã bày tỏ hoan nghênh sắc lệnh của Tổng thống Biden. Tuy nhiên, chuyên gia này lo ngại khi triển khai thực hiện, sắc lệnh sẽ gặp phải không ít rào cản, trong đó có việc các công ty công nghệ có thể hạn chế chia sẻ dữ liệu độc quyền với chính phủ vì lo ngại dữ liệu đó bị rò rỉ cho đối thủ.
Không riêng gì ở Mỹ, nhiều quốc gia trên thế giới đang ráo riết triển khai các biện pháp để xây dựng các bộ quy tắc sử dụng AI và bảo vệ quyền riêng tư cho người dùng internet. Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7) từ nhiều tháng qua đã thảo luận về sự cần thiết áp dụng hệ tiêu chuẩn quốc tế để kiểm soát các mô hình công nghệ AI đang phát triển nhanh chóng, chẳng hạn như ứng dụng ChatGPT. Hôm 30/10, G7 cũng đã thông qua một bộ quy tắc ứng xử dành cho những nhà phát triển AI. Theo đó, các công ty cần thông báo công khai về khả năng, hạn chế cũng như việc sử dụng và lạm dụng hệ thống AI, đồng thời cần triển khai các biện pháp kiểm soát bảo mật. Dù vậy, bộ quy tắc của G7 sẽ được thực hiện trên tinh thần tự nguyện.
Vài tháng trở lại đây, bên cạnh những ưu thế mà thuật toán của AI có thể mang lại, ngày càng nhiều cảnh báo về rủi ro tiềm ẩn do AI gây ra, bao gồm quấy rối, kích động thù hận, lạm dụng trực tuyến hay đe dọa sự an toàn của trẻ em, quyền riêng tư và nguy cơ thao túng thông tin. Bởi vậy, sắc lệnh mới của Chính phủ Mỹ được kỳ vọng sẽ phần nào định hình những khuôn khổ pháp lý cần thiết để quản lý công nghệ. Tuy nhiên, giới quan sát cho rằng, những khó khăn về ngân sách cũng gây ra thách thức không nhỏ khi triển khai các hoạt động trong khuôn khổ này.