Định vị con người trước AI

Ngày 19/11, theo Hãng tin Reuters, ba nước Đức, Pháp và Italy đã đạt được thỏa thuận về cách thức quản lý trí tuệ nhân tạo (AI) trong tương lai. Thỏa thuận này được kỳ vọng sẽ giúp thúc đẩy các cuộc đàm phán về quản lý AI ở cấp độ châu Âu, nhất là trong bối cảnh những ẩn họa từ lĩnh vực đầy tiềm năng này đã được giới chuyên môn liên tục chỉ ra suốt thời gian qua.
0:00 / 0:00
0:00

CHÍNH phủ cả ba nước Đức, Pháp và Italy thống nhất quan điểm: Các quy tắc ứng xử và tính minh bạch phải có tính ràng buộc đối với tất cả các đối tượng khác nhau.

Lập trường chung của ba nước là: Việc phân biệt các quy định theo quy mô của các nhà cung cấp AI sẽ tạo cạnh tranh không bình đẳng, với lợi thế nghiêng về các nhà cung cấp AI nhỏ - những người hiển nhiên sẽ được hưởng lợi từ việc những tập đoàn công nghệ lớn phải chịu các quy định khắt khe của những khung pháp lý (điều tất yếu sẽ dẫn đến tâm lý e ngại thực hiện các thủ tục cần thiết, từ cộng đồng khách hàng và người sử dụng dịch vụ AI).

Do đó, ba chính phủ ủng hộ các cam kết tự nguyện ràng buộc đối với tất cả các nhà cung cấp AI lớn và nhỏ ở Liên minh châu Âu (EU), thay vì chỉ áp dụng đối với các nhà cung cấp AI lớn, như đề xuất trước đó của Nghị viện châu Âu.

CHUYỆN "khoanh vùng" để làm rõ trách nhiệm trong trường hợp có sự cố phát sinh đã trở thành nhu cầu bức thiết đối với không ít lĩnh vực của đời sống xã hội hiện đại, mà trí tuệ nhân tạo cũng không phải ngoại lệ.

Hội nghị cấp cao về AI đầu tiên trên thế giới, khép lại ngày 2/11 tại nước Anh, chỉ rõ trong Tuyên bố chung về an toàn AI: Ngày càng xuất hiện nhiều mối lo ngại liên quan AI, như tình trạng mất việc làm, các cuộc tấn công mạng, sự lan truyền thông tin giả, hay đặc biệt là câu hỏi về khả năng con người duy trì quyền kiểm soát các hệ thống sử dụng trí tuệ nhân tạo trong tương lai.

Do đó, Tuyên bố chung đồng thuận về việc thúc đẩy những nỗ lực toàn cầu, nhằm bảo đảm rằng AI phải được phát triển và sử dụng an toàn, có trách nhiệm. Nhấn mạnh yêu cầu hợp tác hướng tới phát triển công nghệ an toàn, khối EU cùng 28 quốc gia và vùng lãnh thổ khác đã ký thỏa thuận công nhận cần có hành động phối hợp quốc tế ở lĩnh vực này.

Song song, EU cùng Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7), Australia, Hàn Quốc, Singapore… cũng đã ký các thỏa thuận với các công ty hàng đầu về AI, để thử nghiệm các mô hình trí tuệ nhân tạo mới nhất, trước và sau khi chúng được phổ biến.

MỘT cách ngắn gọn, khi nỗ lực thiết lập các khung pháp lý về phát triển, sử dụng và quản lý AI, loài người cũng đang định vị lại chính vai trò của mình, trước tất cả những khía cạnh khó lường của kỷ nguyên trí tuệ nhân tạo.

Ba nước Đức, Pháp và Italy đang dẫn đầu tiến trình này, với thỏa thuận ngày 19/11. Qua đó, họ lan tỏa những tác động cần thiết tới Ủy ban châu Âu, Hội đồng châu Âu, Nghị viện châu Âu cũng như toàn EU.

Vấn đề cần cân nhắc, như đã được nêu trong "Đạo luật AI" (được đề xuất hồi tháng 6 trước Nghị viện châu Âu), là sự cân bằng giữa nhu cầu ngăn chặn các rủi ro với việc không tạo nên các rào cản làm chậm lộ trình khai thác những lợi ích to lớn của công nghệ này, tại châu Âu.

Có lẽ vì vậy, trong thỏa thuận mới nhất, các hình thức chế tài cụ thể cũng chưa được đề cập. Thay vào đó, hệ thống xử phạt sẽ chỉ được thiết lập sau khi phát hiện các trường hợp vi phạm quy tắc ứng xử sau một thời gian nhất định. Và trong tương lai, một cơ quan có thẩm quyền của châu Âu sẽ chịu trách nhiệm giám sát việc tuân thủ các tiêu chuẩn đề ra, sau khi phương hướng này đã đạt được sự ủng hộ, nhất trí rộng rãi.

Và cuối cùng, vượt trước tất cả mọi quy chuẩn pháp định, ý thức của mỗi cá nhân trong việc sử dụng AI có trách nhiệm vẫn là yếu tố cốt lõi hàng đầu, để bảo vệ tương lai của chính loài người.