Giám sát và quản lý trí tuệ nhân tạo

Trí tuệ nhân tạo (AI) đang trở thành “cơn sốt” trong giới công nghệ, nhất là sau khi công ty OpenAI (Mỹ) tung ra các công cụ ChatGPT và GPT-4. Các ứng dụng AI có tiềm năng to lớn giúp thay đổi cuộc sống, song ngày càng xuất hiện nhiều cảnh báo về nguy cơ AI có thể bị lạm dụng vào các mục đích xấu, do đó cần có các quy định quản lý chặt chẽ hơn công nghệ này.
0:00 / 0:00
0:00
Cần có sự quản lý chặt chẽ trong các bước phát triển của AI. Ảnh: KHALEEJ TIMES
Cần có sự quản lý chặt chẽ trong các bước phát triển của AI. Ảnh: KHALEEJ TIMES

Cảnh báo về nguy cơ

Hiệp hội Thanh toán và Thanh toán bù trừ Trung Quốc (PCAC) cảnh báo, việc sử dụng ứng dụng ChatGPT do công ty OpenAI (Mỹ) phát triển cũng như các công cụ tương tự có thể gây ra những rủi ro như rò rỉ dữ liệu xuyên biên giới. Trong tuyên bố, PCAC nêu rõ: Nhân viên ngành thanh toán phải tuân thủ luật pháp và các quy tắc khi sử dụng những công cụ như ChatGPT và không đăng tải những thông tin mật liên quan tình hình đất nước và ngành tài chính.

Một số ý kiến cho rằng, cuộc chạy đua phát triển chatbot (phần mềm máy tính được kết hợp với AI để tương tác với con người) góp phần thúc đẩy sự phục hồi của cổ phiếu công nghệ, truyền thông và viễn thông. Tuy nhiên, ngày 10/4, tờ Economic Daily của Trung Quốc đăng bài viết kêu gọi các cơ quan quản lý tăng cường giám sát và trấn áp đầu cơ trong lĩnh vực công nghệ AI. Các chuyên gia nhấn mạnh cảnh báo nguy cơ “bong bóng” từ cuộc đua công nghệ này.

Giám đốc điều hành hãng công nghệ Google, Sundar Pichai cảnh báo, xã hội chưa chuẩn bị sẵn sàng cho sự phát triển nhanh chóng của AI. Chia sẻ với Đài Truyền hình CBS (Mỹ), ông Sundar Pichai cho rằng, AI sẽ tác động đến mọi sản phẩm của mọi công ty. Vấn đề thông tin sai lệch, tin tức, hình ảnh giả mạo được tạo bởi AI sẽ trở nên nghiêm trọng hơn và có thể gây hậu quả khôn lường.

Ông Pichai nhận định, một mặt xã hội chưa kịp thích ứng với AI, thể hiện qua thực tế tốc độ tư duy và thích ứng của các tổ chức xã hội hiện chưa bắt kịp tốc độ phát triển nhanh chóng của công nghệ. Mặt khác, CEO của Google lạc quan vì hiện nay nhiều người bắt đầu lo lắng về những hệ lụy của AI từ rất sớm, điều khác biệt so khi các công nghệ chatbot trước đây xuất hiện.

Cuối tháng 3/2023, tổ chức phi lợi nhuận Viện Cuộc sống tương lai (Future of Life) đã công bố bức thư ngỏ kêu gọi tạm dừng sáu tháng việc huấn luyện các mô hình AI mạnh hơn GPT-4 mà công ty OpenAI phát triển. Bức thư có chữ ký của hơn 1.000 người, trong đó có tỷ phú Mỹ Elon Musk; CEO của công ty Stability AI, ông Emad Mostaque; các nhà nghiên cứu tại DeepMind của tập đoàn Alphabet, cũng như các chuyên gia đầu ngành trong lĩnh vực AI. Nêu rõ nguy cơ tiềm tàng đối với xã hội và nhân loại, các chuyên gia và chủ doanh nghiệp cho rằng cần tạm ngừng phát triển AI tiên tiến cho đến khi các quy định về an toàn dành cho thiết kế AI được phát triển, thực thi và giám sát bởi các chuyên gia độc lập.

Bức thư được công bố trong bối cảnh Lực lượng Cảnh sát châu Âu (Europol) cũng bày tỏ lo ngại về pháp lý và đạo đức liên quan các ứng dụng AI như ChatGPT, cảnh báo về nguy cơ sử dụng hệ thống này vào các âm mưu lừa đảo qua thư, giả mạo thông tin và tội phạm mạng.

Các chuyên gia an ninh mạng Nhật Bản cũng cảnh báo, ChatGPT có thể bị lợi dụng để viết mã độc cho các phần mềm độc hại. Theo nhà phân tích Takashi Yoshikawa tại công ty cung cấp giải pháp an ninh mạng Mitsui Bussan Secure Directions (Nhật Bản), dù ChatGPT được huấn luyện để từ chối thực hiện các hành vi sử dụng phi đạo đức như yêu cầu nêu cách chế tạo bom hoặc tạo virus máy tính, nhưng trên thực tế, các biện pháp an ninh mà nhà phát triển phần mềm áp dụng hoàn toàn có thể bị phá vỡ, khiến ChatGPT dễ dàng bị lợi dụng vào mục đích xấu và trở thành công cụ của tội phạm.

Siết chặt giám sát

Cuối tháng 3/2023, Cơ quan Bảo vệ dữ liệu của Italy (Garante) thông báo đã chặn các hoạt động của ChatGPT tại nước này, với lý do ứng dụng do OpenAI phát triển đã không tôn trọng dữ liệu người dùng và không thể xác minh tuổi của người dùng. Garante đồng thời mở một cuộc điều tra đối với ChatGPT về những cáo buộc trên. Ngày 18/4, người đứng đầu Garante, ông Pasquale Stanzione, cho biết cơ quan này sẵn sàng cho phép ChatGPT hoạt động trở lại nếu OpenAI đáp ứng được các yêu cầu của Garante về bảo vệ dữ liệu.

Theo Garante, ChatGPT đã gặp sự cố, dẫn tới làm rò rỉ dữ liệu liên quan các cuộc trò chuyện và thông tin thanh toán của người dùng. Theo nội dung một email mà OpenAI gửi cho khách hàng, các thông tin bao gồm họ và tên, địa chỉ thanh toán, loại thẻ tín dụng, ngày hết hạn thẻ và bốn chữ số cuối trên số thẻ đã bị lộ. ChatGPT cũng chưa có biện pháp để xác minh độ tuổi của người dùng, nên trẻ vị thành niên có thể nhận được những câu trả lời hoàn toàn không phù hợp với mức độ phát triển thể chất và nhận thức. Ứng dụng này trước đó được cho là chỉ dành riêng cho những người từ 13 tuổi trở lên.

Italy là quốc gia Tây Âu đầu tiên hạn chế ChatGPT, song sự phát triển nhanh chóng của ứng dụng này đã thu hút sự chú ý của các nhà lập pháp và cơ quan quản lý ở một số quốc gia khác. Giới lập pháp Liên minh châu Âu (EU) đã kêu gọi các nhà lãnh đạo thế giới tiến hành một hội nghị cấp cao thảo luận cách thức để kiểm soát sự phát triển của các hệ thống AI tiên tiến như ChatGPT. Theo ông Stanzione, Italy hành động đơn phương chặn ChatGPT vì đây là vấn đề khẩn cấp. Nếu chờ một quyết định ở cấp độ châu Âu sẽ cần tới ít nhất ba hoặc bốn tháng.

Cơ quan Bảo vệ dữ liệu của Tây Ban Nha (AEPD) thông báo về cuộc điều tra sơ bộ về các vi phạm dữ liệu tiềm tàng của ChatGPT, trong bối cảnh toàn cầu tăng cường giám sát hệ thống AI. Mục đích chính của cuộc điều tra là nhằm bảo đảm rằng, ChatGPT tuân thủ các quy định hiện hành về bảo vệ dữ liệu và trong trường hợp phát hiện vi phạm, cần thực hiện các biện pháp cần thiết để bảo vệ quyền của người dùng. Nếu vi phạm, ChatGPT có thể đối mặt các án phạt kinh tế nghiêm trọng và phải sửa đổi các phương thức xử lý dữ liệu.

Đức có thể nối bước Italy chặn các hoạt động của ChatGPT tại nước này trước những mối lo ngại về mất an ninh dữ liệu. Ngày 19/4, 42 hiệp hội và nghiệp đoàn của Đức, đại diện cho hơn 140.000 tác giả và nghệ sĩ biểu diễn đã kêu gọi EU tăng cường dự thảo các quy định về AI trong bối cảnh ngày càng nhiều mối đe dọa đối với bản quyền của họ từ ChatGPT. Cơ quan giám sát quyền riêng tư ở Pháp và Ireland cho biết, đã liên hệ với cơ quan quản lý dữ liệu của Italy để thảo luận những thông tin liên quan.

Cơ quan Bảo vệ dữ liệu châu Âu (EDPB) hôm 13/4 đã tuyên bố thành lập một lực lượng đặc trách về ChatGPT, nhằm thúc đẩy hợp tác và trao đổi thông tin về các hành động thực thi pháp luật có thể áp dụng. EDPB là cơ quan độc lập, phụ trách việc giám sát các quy định bảo vệ dữ liệu trong EU, gồm các cơ quan bảo vệ dữ liệu quốc gia thành viên.

Theo Kyodo News, các cuộc thảo luận xoay quanh chủ đề giám sát và quản lý AI sẽ được thúc đẩy trong khuôn khổ Hội nghị cấp cao Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7), dự kiến diễn ra tại thành phố Hiroshima của Nhật Bản vào tháng 5 tới, cũng như tại các diễn đàn quốc tế khác. Trong cuộc họp kéo dài hai ngày ở thành phố Takasaki, tỉnh Gunma vào cuối tháng 4, các bộ trưởng công nghệ thông tin các nước G7 cũng thảo luận thêm nỗ lực đẩy nhanh nghiên cứu và tăng cường quản lý các hệ thống AI.

Tuy nhiên, Phó Thủ tướng kiêm Bộ trưởng Cơ sở hạ tầng Italy Matteo Salvini cảnh báo khả năng cạnh tranh của nước này sẽ bị ảnh hưởng, nếu ChatGPT không sớm được kích hoạt lại. Phó Thủ tướng Italy nhấn mạnh rằng, ứng dụng này là công cụ làm việc mà nhiều người trẻ tuổi, nhiều công ty, nhất là các công ty mới thành lập đang sử dụng.

Người đứng đầu Cơ quan bảo vệ dữ liệu của Ireland (DPC), bà Helen Dixon ngày 20/4 cho biết, các loại ứng dụng AI tạo sinh như ChatGPT cần được quản lý, song phải vạch ra cách thức phù hợp trước khi ồ ạt đưa ra các lệnh cấm. Tại một hội nghị của hãng Bloomberg, bà Dixon khẳng định, hiện công nghệ này còn mới mẻ và đây là lúc để thảo luận hơn là cấm đoán.