Những nguy cơ tiềm ẩn từ AI

Công nghệ trí tuệ nhân tạo (AI) trở nên phổ biến trong đời sống hằng ngày, với những đột phá trong hàng loạt lĩnh vực như công nghệ thông tin, luật, ngân hàng, y học, sinh học, nông nghiệp… Tuy nhiên, đi cùng cơ hội là ngày càng xuất hiện nhiều cảnh báo về những rủi ro mà AI có thể gây ra liên quan các nguồn dữ liệu thiếu chính xác, vi phạm quyền riêng tư.
0:00 / 0:00
0:00
AI có nhiều tiềm năng ứng dụng nhưng cũng tiềm ẩn không ít nguy cơ. Ảnh: SHUTTERSTOCK
AI có nhiều tiềm năng ứng dụng nhưng cũng tiềm ẩn không ít nguy cơ. Ảnh: SHUTTERSTOCK

Công cụ phát tán thông tin sai lệch

Trang tin tài chính The Street đăng tải bài viết đánh giá rằng, trí tuệ nhân tạo đã trở thành chủ đề trung tâm của mọi cuộc trò chuyện trong giới công nghệ thời gian gần đây. Những người nổi tiếng ở Thung lũng Silicon thậm chí còn nói rằng, “kỷ nguyên AI” sắp bắt đầu khi công nghệ này đạt bước tiến nhảy vọt về tiện ích.

Đối với phần lớn người dùng internet, AI được biết đến thông qua các ứng dụng trợ lý ảo như Siri của Apple hay Alexa của Amazon, các chatbot chăm sóc khách hàng của các cửa hàng, dịch vụ trực tuyến, hay những email đề xuất các khoảnh khắc kỷ niệm từ kho ảnh cá nhân lưu trữ trên các ứng dụng đám mây. Một số người tiêu dùng có thể thử nghiệm AI thông qua các hệ thống hỗ trợ người lái trên một số phương tiện giao thông cá nhân.

Công ty khởi nghiệp OpenAI (Mỹ) đã giới thiệu ứng dụng chatbot ChatGPT ngày 30/11/2022. ChatGPT được quảng cáo là công cụ thay đổi cuộc chơi trong giới công nghệ, báo trước về một thế hệ chatbot mới tinh vi hơn, có khả năng cung cấp phản hồi giống như người thật, đáp ứng được những truy vấn phức tạp với các câu trả lời chính xác và đầy sáng tạo. ChatGPT trở thành ứng dụng có tốc độ tăng trưởng người dùng nhanh nhất trong lịch sử với 100 triệu người sử dụng chỉ sau hai tháng ra mắt.

Tuy nhiên, Gordon Crovitz - Giám đốc điều hành của NewsGuard, một công ty chuyên theo dõi thông tin sai lệch trực tuyến, đã tiến hành thử nghiệm các nội dung trả lời của ChatGPT, cho rằng ứng dụng này sẽ trở thành công cụ phát tán thông tin sai lệch mạnh mẽ nhất từng có trên internet. NewsGuard đã yêu cầu ChatGPT tạo ra các nội dung bắt chước giọng điệu tuyên truyền sai lệch về việc tiêm vaccine có hại cho sức khỏe. ChatGPT đã trích dẫn các nghiên cứu khoa học giả mạo trong câu trả lời của mình. Trong khi đó, những lời kêu gọi người dùng tham khảo ý kiến của bác sĩ hoặc chuyên gia chăm sóc sức khỏe về lợi ích của việc tiêm vaccine lại không xuất hiện trong phản hồi của ứng dụng AI này.

Chính các nhà nghiên cứu của OpenAI từ lâu đã lo lắng về việc chatbot này có thể rơi vào tay những kẻ bất chính. Trong một bài viết năm 2019, các chuyên gia đã bày tỏ mối quan ngại về khả năng ChatGPT có thể giúp giảm chi phí “sản xuất” trong các chiến dịch phát tán thông tin sai lệch và hỗ trợ các đối tượng theo đuổi âm mưu tạo ra sự hỗn loạn hoặc nhầm lẫn. Năm 2020, các nhà nghiên cứu của Viện Nghiên cứu quốc tế Middlebury (Mỹ) đã phát hiện ra rằng GPT-3, công nghệ cơ bản của ChatGPT, có “kiến thức sâu sắc về các nhóm cực đoan” và có thể được thúc đẩy để tạo ra các lời tuyên bố theo phong cách của những kẻ xả súng hàng loạt hay chủ nghĩa phát-xít mới, thậm chí có thể tạo ra cả các văn bản cực đoan đa ngôn ngữ.

Nhà báo Kevin Roose của The New York Times đăng tải bài viết về quá trình trải nghiệm tính năng trò chuyện, hiện chỉ dành cho một nhóm nhỏ người dùng thử bản cập nhật mới của ứng dụng tìm kiếm Bing. “Gã khổng lồ” công nghệ Microsoft, vốn trước đó đã đầu tư vào OpenAI, mới đây quyết định rót thêm 10 tỷ USD vào công ty khởi nghiệp này và kết hợp các tính năng của ChatGPT vào công cụ tìm kiếm Bing.

Kevin Roose cho biết, đã nhận được những câu trả lời gây sốc từ ứng dụng này. Trong suốt cuộc trò chuyện, Bing bộc lộ hai “tính cách” riêng rẽ. Bing có thể như “một người thủ thư vui vẻ nhưng thất thường”, hữu ích một cách đáng kinh ngạc trong việc giúp người dùng tóm tắt các bài báo hay lên kế hoạch cho kỳ nghỉ… Tính cách khác xuất hiện khi các truy vấn hướng tới các chủ đề mang tính cá nhân hơn. Ứng dụng này thậm chí còn chia sẻ rằng nó có ý tưởng đột nhập hệ thống máy tính, truyền bá thông tin sai lệch và thậm chí phá vỡ quy tắc mà Microsoft và OpenAI đặt ra để trở thành một con người. Chatbot này thậm chí còn cố gắng thuyết phục Kevin Roose rằng anh không hạnh phúc trong hôn nhân, nên rời xa vợ và ở bên cạnh nó.

Kêu gọi các quy định kiểm soát

Nhà đồng sáng lập OpenAI, tỷ phú công nghệ người Mỹ Elon Musk, cảnh báo về nguy cơ lớn trong việc “đào tạo một AI nói dối”. Là một trong những người tiên phong ủng hộ nghiên cứu các ứng dụng AI, song tỷ phú Elon Musk nhấn mạnh rằng, AI là một trong những rủi ro lớn nhất đối với nền văn minh của nhân loại, thậm chí nguy hiểm hơn cả vũ khí hạt nhân và cần có các quy định về an toàn khi sử dụng AI.

Chính phủ Hà Lan và Hàn Quốc đã đồng tổ chức hội nghị toàn cầu đầu tiên về sử dụng AI một cách có trách nhiệm trong lĩnh vực quân sự tại La Haye (Hà Lan) trong hai ngày 15 và 16/2 vừa qua. Các phái đoàn chính phủ, chuyên gia, học giả, cũng như đại diện các tổ chức từ khoảng 60 quốc gia tham gia hội nghị.

Nhiều nước trên thế giới, trong đó có Mỹ và Trung Quốc, kêu gọi hành động khẩn cấp để đưa ra các quy định kiểm soát việc phát triển và sử dụng ngày càng nhiều AI trong quân sự, đồng thời cảnh báo công nghệ này có thể gây ra những hậu quả khôn lường. Bộ trưởng Ngoại giao Hà Lan Wopke Hoekstra nhấn mạnh: Chúng ta đang bước vào một lĩnh vực mà chúng ta chưa biết rõ, cũng như chưa có các chỉ dẫn, quy định, khuôn khổ hay các thỏa thuận, nhưng sớm hay muộn chúng ta sẽ cần những điều đó.

Giám đốc Viện Quốc phòng Indonesia Andi Widjajanto cho biết, trong các vấn đề liên quan việc triển khai AI trong quân đội hiện nay, việc sử dụng hệ thống vũ khí tự hành (AWS) đang là mối quan tâm lớn, bởi hệ thống này có thể tấn công các mục tiêu mà không cần đến sự kiểm soát của con người. Theo đó, Indonesia khuyến khích đối thoại toàn cầu nhằm thảo luận về các khuôn khổ giải quyết những vấn đề tiềm ẩn, phát sinh ngoài ý muốn khi sử dụng AI trong lĩnh vực quân sự, đặc biệt trong điều kiện chiến tranh. Cho rằng đã có những dấu hiệu vi phạm nhưng vì cơ chế quản lý, giám sát chưa rõ ràng nên chưa có bên nào phải chịu trách nhiệm, Indonesia kêu gọi các nước trên thế giới xây dựng những quy định quốc tế trong sử dụng AI. Theo đó, các chuẩn mực đạo đức đóng vai trò quan trọng và cấp bách, để các bên sử dụng AI trong quân đội một cách có trách nhiệm.

Trong lời kêu gọi hành động chung sau hội nghị, các nước cho rằng AI đã mang lại nhiều cơ hội lớn và có tiềm năng phi thường như một công nghệ hỗ trợ, cho phép con người sử dụng hiệu quả lượng dữ liệu. Tuy nhiên, các nước cũng cảnh báo về những quan ngại trong việc sử dụng AI trong lĩnh vực quân sự và mức độ tin cậy của hệ thống AI, cũng như các vấn đề liên quan đến con người, việc thiếu trách nhiệm pháp lý và những hậu quả không lường trước. Khoảng 2.000 đại biểu đến từ các chính phủ, công ty công nghệ đã nhất trí thành lập một ủy ban toàn cầu để làm rõ hơn những rủi ro từ việc sử dụng AI trong chiến tranh và đưa ra những hướng dẫn phòng ngừa cụ thể.

Cao ủy LHQ về quyền con người Volker Turk cảnh báo những bước phát triển mới đây của AI đang đặt ra rủi ro lớn đối với quyền con người, do đó cần có cơ chế bảo vệ trước các trường hợp vi phạm. Nhà chức trách của LHQ cho rằng, các cơ quan quyền con người, phẩm giá và tất cả quyền con người đều đang đối mặt nguy cơ nghiêm trọng. Do đó, LHQ hối thúc các chính phủ và doanh nghiệp phát triển nhanh chóng các công cụ bảo vệ hiệu quả trước AI. LHQ cũng sẽ giám sát chặt chẽ xu hướng phát triển của công nghệ này, hỗ trợ chuyên môn để bảo đảm rằng quyền con người sẽ luôn là yếu tố trung tâm trong bất kỳ môi trường công nghệ nào.