Cấm sử dụng hệ thống AI tạo nội dung giả mạo gây nguy hại an ninh quốc gia

Luật Trí tuệ nhân tạo vừa được Quốc hội thông qua quy định về các hành vi bị nghiêm cấm trong hoạt động trí tuệ nhân tạo (AI), trong đó có hành vi sử dụng các hệ thống AI tạo ra hoặc phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội.

Chiều 10/12, Quốc hội đã thông qua Luật Trí tuệ nhân tạo với 429/434 đại biểu có mặt tán thành (bằng 90,7% tổng số đại biểu Quốc hội).

Luật Trí tuệ nhân tạo gồm 8 chương, 35 điều, quy định về nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo; quyền, nghĩa vụ của tổ chức, cá nhân có liên quan và quản lý nhà nước đối với các hoạt động trí tuệ nhân tạo tại Việt Nam. Hoạt động trí tuệ nhân tạo chỉ phục vụ cho mục đích quốc phòng, an ninh, cơ yếu không thuộc phạm vi điều chỉnh của Luật này.

ndo_br_ket-qua-luat-tri-tue-nhan-tao.jpg
Kết quả biểu quyết thông qua Luật Trí tuệ nhân tạo. (Ảnh: DUY LINH)

4 nguyên tắc cơ bản trong hoạt động trí tuệ nhân tạo

Theo Luật vừa được Quốc hội thông qua, hoạt động trí tuệ nhân tạo phải bảo đảm tuân thủ 4 nguyên tắc cơ bản, gồm:

Lấy con người làm trung tâm, bảo đảm quyền con người, quyền riêng tư, lợi ích quốc gia, lợi ích công cộng và an ninh quốc gia; tuân thủ Hiến pháp và pháp luật.

Trí tuệ nhân tạo phục vụ con người, không thay thế thẩm quyền và trách nhiệm của con người. Bảo đảm duy trì sự kiểm soát và khả năng can thiệp của con người đối với mọi quyết định và hành vi của hệ thống trí tuệ nhân tạo; an toàn hệ thống, an ninh dữ liệu và bảo mật thông tin; khả năng kiểm tra và giám sát quá trình phát triển và vận hành hệ thống.

Bảo đảm công bằng, minh bạch, không thiên lệch, không phân biệt đối xử và không gây hại cho con người hoặc xã hội; tuân thủ chuẩn mực đạo đức và giá trị văn hóa Việt Nam; thực hiện trách nhiệm giải trình về các quyết định và hệ quả của hệ thống.

Thúc đẩy phát triển trí tuệ nhân tạo xanh, bao trùm và bền vững; khuyến khích phát triển và ứng dụng các công nghệ trí tuệ nhân tạo theo hướng sử dụng hiệu quả năng lượng, tiết kiệm tài nguyên và giảm tác động tiêu cực đến môi trường.

Phân loại và quản lý hệ thống AI theo rủi ro

Luật Trí tuệ nhân tạo quy định phân loại và quản lý hệ thống trí tuệ nhân tạo theo 3 mức độ rủi ro: cao, trung bình, thấp.

Hệ thống trí tuệ nhân tạo có rủi ro cao là hệ thống có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng, an ninh quốc gia;

Hệ thống trí tuệ nhân tạo có rủi ro trung bình là hệ thống có khả năng gây nhầm lẫn, tác động hoặc thao túng người sử dụng do không nhận biết được chủ thể tương tác là hệ thống trí tuệ nhân tạo hoặc nội dung do hệ thống tạo ra;

Hệ thống trí tuệ nhân tạo có rủi ro thấp là các hệ thống còn lại.

Việc phân loại rủi ro của hệ thống trí tuệ nhân tạo được xác định trên cơ sở các tiêu chí về mức độ tác động đến quyền con người, an toàn, an ninh; lĩnh vực sử dụng của hệ thống, đặc biệt là lĩnh vực thiết yếu hoặc liên quan trực tiếp đến lợi ích công cộng; phạm vi người sử dụng và quy mô ảnh hưởng của hệ thống.

ndo_br_bt-nguyen-manh-hung-1.jpg
Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng trình bày báo cáo tiếp thu, giải trình, chỉnh lý dự thảo Luật trước khi Quốc hội bấm nút biểu quyết. (Ảnh: DUY LINH)

Các hành vi bị nghiêm cấm trong hoạt động trí tuệ nhân tạo

Luật Trí tuệ nhân tạo cũng quy định về các hành vi bị nghiêm cấm trong hoạt động trí tuệ nhân tạo, cụ thể là:

Lợi dụng, chiếm đoạt hệ thống trí tuệ nhân tạo để thực hiện hành vi vi phạm pháp luật, xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân.

Phát triển, cung cấp, triển khai hoặc sử dụng các hệ thống trí tuệ nhân tạo nhằm mục đích: thực hiện các hành vi bị nghiêm cấm theo quy định của luật; sử dụng yếu tố giả mạo hoặc mô phỏng người, sự kiện thật để lừa dối hoặc thao túng nhận thức, hành vi của con người một cách có chủ đích và có hệ thống, gây tổn hại nghiêm trọng đến quyền, lợi ích hợp pháp của con người; lợi dụng điểm yếu của nhóm người dễ bị tổn thương, gồm trẻ em, người cao tuổi, người khuyết tật, người dân tộc thiểu số hoặc người mất năng lực hành vi dân sự, người bị hạn chế năng lực hành vi dân sự, người có khó khăn trong nhận thức, làm chủ hành vi, để gây tổn hại cho chính họ hoặc người khác; tạo ra hoặc phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội.

Thu thập, xử lý hoặc sử dụng dữ liệu để phát triển, huấn luyện, kiểm thử hoặc vận hành hệ thống trí tuệ nhân tạo trái với quy định của pháp luật về dữ liệu, bảo vệ dữ liệu cá nhân, sở hữu trí tuệ và an ninh mạng.

Cản trở, vô hiệu hóa hoặc làm sai lệch cơ chế giám sát, can thiệp và kiểm soát của con người đối với hệ thống trí tuệ nhân tạo theo quy định của Luật này.

Che giấu thông tin bắt buộc phải công khai, minh bạch hoặc giải trình; tẩy xóa, làm sai lệch các thông tin, nhãn, cảnh báo bắt buộc trong hoạt động trí tuệ nhân tạo.

Lợi dụng hoạt động nghiên cứu, thử nghiệm, đánh giá hoặc kiểm định hệ thống trí tuệ nhân tạo để thực hiện hành vi trái quy định của luật.

Có thể bạn quan tâm