Trách nhiệm trong phát triển công nghệ AI

Trước những rủi ro ngày càng lớn từ sự bùng nổ công nghệ trí tuệ nhân tạo (AI), giới lập pháp đang thúc giục các công ty công nghệ có trách nhiệm và thận trọng trong nghiên cứu, phát triển sản phẩm AI. Đối mặt với sức ép, các công ty bước đầu đưa ra những cam kết nhằm giảm mối đe dọa của AI, dù rằng từ lời nói đến hành động còn cần nhiều nỗ lực và thời gian.
0:00 / 0:00
0:00

Tạo cơ chế quản lý AI là chủ đề chính trong cuộc họp mới đây giữa giới chức Mỹ và các đại gia công nghệ diễn ra ở Đồi Capitol. Tổng thống Mỹ Joe Biden đã yêu cầu các doanh nghiệp phải có trách nhiệm bảo đảm tính an toàn của các sản phẩm AI trước khi đưa ra công chúng, cũng như minh bạch về hệ thống AI trước các nhà hoạch định chính sách. Cuộc gặp quy tụ các lãnh đạo của nhiều hãng công nghệ lớn, như Microsoft, Meta, Alphabet, IBM…

Tầm quan trọng của việc kiểm soát AI càng quan trọng trong bối cảnh rủi ro từ công nghệ mới nổi này xuất hiện ngày càng nhiều. Các nhà lập pháp đứng trước bài toán khó là vừa kiềm chế nguy cơ từ công nghệ mới, vừa khuyến khích tinh thần đổi mới, sáng tạo.

Giám đốc điều hành (CEO) của nền tảng mạng xã hội X, tỷ phú Elon Musk đã ví AI như “con dao hai lưỡi”, đồng thời kêu gọi tạo lập cơ chế trọng tài về AI, bởi cần có cơ quan quản lý để bảo đảm sử dụng AI an toàn. Một loạt công ty công nghệ lớn như Google, OpenAI, Microsoft, Adobe, IBM, Nvidia… đã ký cam kết tự nguyện nhằm bảo đảm rằng sức mạnh của AI không bị sử dụng vào mục đích phá hoại.

Không thể phủ nhận công nghệ AI ngày càng trở nên phổ biến trong đời sống thường ngày, mang đến nhiều sáng kiến vượt trội trong các lĩnh vực như y tế, giáo dục… Đối với các công ty công nghệ, các sản phẩm AI còn giúp doanh thu và lợi nhuận tăng vọt. Cụ thể, doanh thu của Nvidia trong quý tài chính thứ hai năm nay (tính đến ngày 30/7) đã tăng gấp đôi so với mức cùng kỳ năm 2022, lên mức cao kỷ lục là 13,5 tỷ USD, trong khi lợi nhuận ròng chạm mốc 6,2 tỷ USD, tăng 843% so với mức cùng kỳ năm 2022.

Tập đoàn công nghệ Alphabet, công ty mẹ của Google, công bố doanh thu và lợi nhuận ròng quý I/2023 vượt dự báo của các nhà phân tích, cho thấy “gã khổng lồ” này dần lấy lại vị thế cao trên thị trường nhờ lĩnh vực AI. Tuy nhiên, bên cạnh việc hưởng lợi từ các sản phẩm AI, các công ty công nghệ cũng đứng trước yêu cầu triển khai thận trọng và đánh giá, sàng lọc, thử nghiệm kỹ càng các sản phẩm trước khi đưa đến công chúng.

Thời gian qua, hàng loạt sản phẩm AI được ồ ạt tung ra, cho thấy cuộc chạy đua khốc liệt giữa các “gã khổng lồ công nghệ”. Công chúng ngày càng nhận ra rằng, mức độ thông minh, tính năng vượt trội của các sản phẩm đi kèm nhiều nguy cơ tiềm ẩn trong đời sống thực.

Chủ tịch Tập đoàn Microsoft Brad Smith nhận định, AI có nguy cơ trở thành vũ khí chống lại nhân loại nếu chúng vượt tầm kiểm soát của con người. Quỹ Nhi đồng Liên hợp quốc (UNICEF) và Diễn đàn Kinh tế Thế giới (WEF) cảnh báo về nguy cơ đối với trẻ em, trong đó có quyền riêng tư, vấn đề an toàn, các tác động về tâm lý và hành vi.

Nhấn mạnh việc quản lý lĩnh vực AI như một yêu cầu cấp bách trong thời đại mới, Chủ tịch Ủy ban châu Âu (EC) Ursula von der Leyen mới đây kêu gọi thành lập một “hội đồng toàn cầu”, gồm các chuyên gia và đại diện công ty công nghệ, để giải quyết những thách thức mà AI đặt ra. Trước đó, EU cũng thông báo viện trợ 4 triệu euro để tổ chức sự kiện và tư vấn cho các chính phủ về vấn đề AI. Một hội nghị thượng đỉnh toàn cầu về an toàn AI sẽ được Anh tổ chức vào đầu tháng 11 tới, ở thành phố Milton Keynes.

Giới chuyên gia nhận định, việc thiết lập các quy định chung cho AI là một quá trình phức tạp, cần được cân nhắc kỹ lưỡng để tránh cản trở sự phát triển của khoa học-công nghệ. Nhiệm vụ xây dựng và triển khai luật quản lý AI sao cho công nghệ này được sử dụng một cách an toàn, nhân văn và phục vụ đắc lực cho cuộc sống con người đòi hỏi sự góp sức của các nhà lãnh đạo, các nhà nghiên cứu khoa học và đặc biệt là giới doanh nghiệp công nghệ.