Thận trọng với trí tuệ nhân tạo phổ quát

Trí tuệ nhân tạo phổ quát (AGI) là một hệ thống trí tuệ nhân tạo (AI) có khả năng tư duy, tự học hỏi và thực hiện một loạt nhiệm vụ phức tạp ở mức độ ngang bằng hoặc thậm chí vượt xa con người. Sự xuất hiện tiềm tàng của AGI khiến không ít chuyên gia trên khắp thế giới lo ngại về một hệ thống có thể trốn tránh sự kiểm soát của con người và đe dọa nhân loại.
0:00 / 0:00
0:00
Biếm họa: OSVAL
Biếm họa: OSVAL

Lĩnh vực công nghệ tiềm năng

Theo Amazon Web Services (AWS), AGI là một lĩnh vực nghiên cứu AI nhằm cố gắng tạo ra phần mềm có trí thông minh giống con người và có khả năng tự học. Thay vì bị giới hạn trong một phạm vi cụ thể, AGI có thể tự học và giải quyết các vấn đề mà nó chưa bao giờ được đào tạo. Trong khi các ứng dụng của công nghệ AI hiện nay đều hoạt động dựa trên một tập hợp các thông số đã xác định trước, AGI theo đuổi mục tiêu phát triển các hệ thống AI có khả năng tự kiểm soát và khả năng học các kỹ năng mới để giải quyết các vấn đề phức tạp trong các hoàn cảnh và bối cảnh mà chưa từng có trong nguồn dữ liệu của nó.

AGI được xếp loại là “AI mạnh”, có khả năng thực hiện các nhiệm vụ với mức độ nhận thức của con người. Ngược lại, các ứng dụng AI ngày nay mới chỉ được xếp loại là “yếu” hoặc “hẹp”, bởi chúng bị giới hạn trong các thông số kỹ thuật, thuật toán và các nhiệm vụ cụ thể mà chúng được thiết kế ngay từ đầu. Các mô hình AI trước đây có bộ nhớ hạn chế và chỉ dựa vào dữ liệu thời gian thực để ra quyết định. Ngay cả các ứng dụng AI tạo sinh mới nổi gần đây với khả năng lưu giữ bộ nhớ tốt hơn cũng được coi là “AI yếu”, vì chúng chưa thể tái sử dụng thông tin cho các bối cảnh mới phức tạp hơn.

Để phát triển được AGI, cần phải có công nghệ, dữ liệu và khả năng kết nối ở phạm vi rộng hơn so với những gì cần cho mô hình AI ngày nay. Tính sáng tạo, nhận thức, khả năng học tập và trí nhớ là những yếu tố cần thiết để tạo ra một AGI có thể bắt chước hành vi phức tạp của con người. Nhìn chung, AGI vẫn được đánh giá là một mục tiêu xa vời đối với các nhà nghiên cứu.

Công ty OpenAI có trụ sở tại California, nhà phát triển ứng dụng chatbot nổi tiếng ChatGPT đang xây dựng AGI. Giám đốc điều hành của OpenAI Sam Altman cho biết, AGI có thể được phát triển trong “tương lai gần”. Theo ông Sam Altman, nếu AGI được tạo ra thành công, công nghệ này có thể giúp thúc đẩy nền kinh tế toàn cầu và hỗ trợ khám phá các kiến ​​thức khoa học mới, làm thay đổi các giới hạn của nhân loại.

Cuộc đua phát triển AGI lại nóng lên khi mới đây Tổng Giám đốc điều hành (CEO) của Tập đoàn Meta là Mark Zuckerberg thông báo, “gã khổng lồ công nghệ” này đang đầu tư hơn 10 tỷ USD vào cơ sở hạ tầng để phát triển AGI. Theo trang Live Science, Meta đang đặt mua 350.000 bộ xử lý đồ họa (GPU) Nvidia H100 - một trong những card đồ họa mạnh nhất trên thế giới hiện nay để đào tạo các mô hình AI, nhằm tăng gấp đôi tổng sức mạnh tính toán của Meta cho việc đào tạo AI.

H100 là phiên bản nâng cấp của card đồ họa A100 mà Công ty OpenAI sử dụng để đào tạo ra ứng dụng ChatGPT. Công ty OpenAI được cho là đã sử dụng khoảng 25.000 GPU Nvidia A100 để đào tạo ra chatbot này.

Thận trọng với trí tuệ nhân tạo phổ quát ảnh 1

Hệ thống AGI có khả năng học hỏi và tiến bộ nhanh. Ảnh: UNITE

Cảnh báo về những rủi ro

CEO Mark Zuckerberg cho biết, Meta sẽ cố gắng xây dựng một hệ thống AGI và biến nó thành nguồn mở, nghĩa là các nhà phát triển bên ngoài công ty cũng có thể truy cập được, giống như mô hình AI của Meta là Llama-2. Ông Zuckerberg cho rằng công nghệ này rất quan trọng và có nhiều cơ hội lớn đến mức chúng nên có mở nguồn và được cung cấp rộng rãi nhất để mọi người đều có thể hưởng lợi.

Tuy nhiên, theo The Guardian, Giáo sư Khoa học máy tính Dame Wendy Hall tại Đại học Southampton (Anh) và là thành viên cơ quan cố vấn của Liên hợp quốc về AI cho rằng, việc phát triển một AGI có nguồn mở là một điều “đáng sợ” và đây là cách tiếp cận vô trách nhiệm với trí tuệ nhân tạo. Giáo sư Dame Wendy Hall cảnh báo về mối nguy hiểm khi AGI với mã nguồn mở được phát hành rộng rãi trước khi thế giới tìm ra cách điều chỉnh các hệ thống AI rất mạnh mẽ này. Chuyên gia này cho rằng, vẫn còn nhiều năm nữa mới có thể phát triển được AGI hoàn chỉnh và vẫn còn thời gian để xây dựng các hệ thống quy định và quản lý.

TS Andrew Rogoyski, Giám đốc Viện AI lấy con người làm trung tâm tại Đại học Surrey (Anh) cũng cho rằng, việc cung cấp rộng rãi cho công chúng nguồn mở của một hệ thống AGI không phải là điều mà một công ty công nghệ có thể tự quyết định. Tiến sĩ Andrew Rogoyski nhấn mạnh những lập luận sâu sắc về giá trị của các mô hình AI hiện tại có nguồn mở, cũng như cuộc tranh luận về việc liệu AGI có thể “cứu” thế giới hay đem tới “thảm họa”. Theo ông Rogoyski, quyết định công khai mã nguồn của một AGI cần được đưa ra bởi sự đồng thuận quốc tế chứ không phải của riêng “đại gia” công nghệ nào.

Trong một cuộc phỏng vấn với trang web tin tức công nghệ Verge, Mark Zuckerberg cho biết, vẫn nghiêng về việc phát triển AGI nguồn mở, miễn là nó là điều an toàn. Quyết định cung cấp mã nguồn mở của mô hình AI Llama-2 của Meta năm 2023 đã hứng chịu sự chỉ trích từ một số chuyên gia. Giáo sư Dame Wendy Hall thậm chí còn ví điều này “hơi giống việc đưa cho mọi người một khuôn mẫu để chế tạo một quả bom hạt nhân”.

Mặc dù OpenAI cũng phát triển AGI, song CEO của công ty, ông Sam Altman vẫn cảnh báo mô hình này có nguy cơ bị lạm dụng nghiêm trọng. Tổng Giám đốc điều hành của OpenAI cho biết, khi hệ thống của công ty tiến gần hơn đến AGI, họ sẽ ngày càng trở nên thận trọng hơn với việc tạo ra và triển khai các mô hình của mình.

Theo ông Sam Altman, cách tốt nhất để quản lý sự tồn tại của AGI một cách cẩn thận là sự chuyển đổi dần dần sang một thế giới có AGI sẽ tốt hơn là chuyển đổi đột ngột. Quá trình chuyển đổi dần dần giúp mọi người, các nhà hoạch định chính sách và các tổ chức có thời gian để hiểu những trải nghiệm cá nhân, lợi ích và nhược điểm của các hệ thống này, từ đó có những điều chỉnh và đưa ra các quy định phù hợp. Ông Sam Altman cũng đồng ý rằng, cần có sự giám sát kỹ lưỡng đối với mọi nỗ lực cố gắng xây dựng AGI và tham vấn cộng đồng đối với các quyết định quan trọng.

AGI cũng được dự đoán sẽ ảnh hưởng đến thị trường việc làm nhiều hơn so với các AI thế hệ trước. Bởi, các mô hình AI hiện nay chỉ có thể ứng dụng trong một lĩnh vực cụ thể, trong khi AGI là mô hình mạnh mẽ và tổng quát hơn. Thí dụ, ứng dụng AI có thể đọc tia X và phát hiện bệnh tật để hỗ trợ cho công việc của các bác sĩ. Tuy nhiên, một AGI có thể đọc tia X, hiểu lịch sử cá nhân của bệnh nhân, đưa ra khuyến nghị và giải thích khuyến nghị đó cho bệnh nhân theo cách thức phù hợp và dường như có thể thay thế hoàn toàn bác sĩ.

Tuy nhiên, nhằm xoa dịu những người hoài nghi về AI, trong cuộc trò chuyện do Bloomberg tổ chức tại Diễn đàn Kinh tế thế giới (WEF) ở Davos, Thụy Sĩ, ông Sam Altman cho rằng, những lo ngại về khả năng một ngày nào đó trí tuệ nhân tạo sẽ trở nên mạnh mẽ đến mức nó có thể định hình lại và phá vỡ thế giới đang bị thổi phồng quá mức.