Các công ty công nghệ lớn trong lĩnh vực trí tuệ nhân tạo (AI) vừa đưa ra những cam kết tự nguyện với Chính phủ Mỹ về việc triển khai các biện pháp như gắn dấu hiệu nhận biết những nội dung do AI tạo ra để bảo đảm công nghệ này được sử dụng an toàn hơn.
Trong các công ty này có OpenAI (chủ quản ChatGPT), Alphabet (chủ quản của Google) và Meta Platforms (chủ quản của Facebook).
Thông báo mới từ Nhà Trắng nêu rõ các công ty đã cam kết kiểm tra kỹ lưỡng các hệ thống trước khi tung ra thị trường và chia sẻ thông tin về các biện pháp giảm nguy cơ cũng như tiếp tục đầu tư cho an ninh mạng.
Động thái trên được xem như chiến thắng dành cho những nỗ lực của Chính phủ Mỹ nhằm quản lý công nghệ AI rất thu hút các nhà đầu tư và ngày càng phổ biến với người dùng.
Kể từ khi công nghệ AI tạo sinh, sử dụng các dữ liệu đầu vào để tạo ra những nội dung mới như ChatGPT, trở nên phổ biến nhanh chóng trong năm nay, các nhà lập pháp trên toàn thế giới cũng bắt đầu xem xét những cách thức giảm thiểu nguy cơ từ công nghệ mới nổi này đối với an ninh quốc gia và nền kinh tế.
Hồi tháng 6, Thượng nghị sĩ Mỹ Chuck Schumer kêu gọi đưa ra bộ luật toàn diện để cải thiện và bảo đảm an toàn trong sử dụng AI.
Quốc hội Mỹ đang xem xét dự luật yêu cầu những quảng cáo liên quan chính trị phải minh bạch thông tin nếu nội dung hoặc hình ảnh do AI tạo ra.
Tổng thống Joe Biden, có buổi làm việc với các công ty tại Nhà Trắng ngày 21/7, cũng đang xem xét một sắc lệnh và một dự luật lưỡng đảng về công nghệ AI.
Một trong những thành quả của nỗ lực này, 7 công ty công nghệ (gồm 3 công ty nêu trên và Anthropic, Inflection, Amazon.com cùng Microsoft) đã cam kết phát triển một hệ thống gắn dấu nhận biết tất cả những nội dung từ văn bản, hình ảnh, âm thanh tới video do AI tạo ra để người dùng được minh bạch thông tin.
Dấu hiệu nhận biết này sẽ giúp người dùng biết rằng những hình ảnh hoặc âm thanh do công nghệ tạo ra, thí dụ như những cảnh bạo lực không có thực.
Hiện chưa rõ các công ty sẽ gắn dấu hiệu nhận biết theo hình thức nào.
Các công ty cũng cam kết sẽ đặt nhiệm vụ bảo vệ quyền riêng tư của người dùng làm trọng tâm khi phát triển AI và bảo đảm công nghệ này được sử dụng một cách khách quan, không phân biệt đối xử với các nhóm dễ tổn thương.
Bên cạnh đó, các công ty cũng cam kết phát triển những giải pháp AI để giải quyết các vấn đề khoa học như nghiên cứu thuốc và giảm thiểu biến đổi khí hậu.