Những rủi ro từ công nghệ Deepfake

Ứng dụng Deepfake dựa trên trí tuệ nhân tạo (AI) nổi lên với khả năng ghép gương mặt của một người vào người khác, hay tạo ra những hình ảnh giả tưởng ngày càng chân thực. Các chính phủ gióng lên hồi chuông cảnh báo về những rủi ro đi kèm bước đột phá công nghệ, khi các ứng dụng đang trở nên dễ dàng tiếp cận hơn với người dùng internet, trong khi vẫn còn rất ít các biện pháp để quản lý các công nghệ mới này.
0:00 / 0:00
0:00
Công nghệ Deepfake có khả năng làm giả khuôn mặt của bất cứ ai. Ảnh: CNET
Công nghệ Deepfake có khả năng làm giả khuôn mặt của bất cứ ai. Ảnh: CNET

Khi công nghệ bị lạm dụng

Theo Reuters, Deepfake được ghép bởi “deep learning” (học sâu), một phần của AI và “fake” (giả). Thông qua quá trình “học sâu”, chương trình máy tính có thể tạo ra hình ảnh, video giả, với nhân vật có những nét biểu cảm, chuyển động và giọng nói như thật.

Deepfake AI là một công nghệ tương đối mới. Theo Tech Target, Deepfake có nguồn gốc từ khả năng chỉnh sửa ảnh thông qua các chương trình như Adobe Photoshop. Vào giữa những năm 2010, sức mạnh tính toán và bộ dữ liệu lớn cho phép công nghệ máy học cải thiện đáng kể các thuật toán, giúp ảnh chỉnh sửa trở nên giống thật hơn. Bước nhảy vọt về chất lượng và khả năng tiếp cận Deepfake được ghi nhận vào năm 2014, khi nhà nghiên cứu Ian Goodfellow của Đại học Montreal (Canada) công bố mạng đối nghịch tạo sinh (GAN). Năm 2017, một người dùng ẩn danh trên Reddit bắt đầu phát tán các video Deepfake, ghép mặt của những người nổi tiếng vào cơ thể không phải của họ, đồng thời chia sẻ công cụ GAN cho phép người dùng tự tráo đổi khuôn mặt trong video. Kể từ đó, những nội dung liên quan Deepfake đã lan truyền mạnh mẽ trên internet và trên phương tiện truyền thông xã hội.

Công nghệ tiên tiến đằng sau Deepfake đem tới nhiều hứa hẹn trong nhiều lĩnh vực, đặc biệt là trong các ngành sáng tạo như làm phim và quảng cáo. Các chiến dịch quảng cáo hoặc làm phim có thể sử dụng Deepfake để lồng tiếng, thực hiện cảnh khó quay, giúp tiết kiệm thời gian và ngân sách sản xuất. Deepfake cũng được xem là một trò giải trí đơn thuần trên internet khi giúp người dùng dễ dàng hoán đổi khuôn mặt mình với các nhân vật nổi tiếng. Công nghệ này cũng được phát triển dành cho những người mua sắm trực tuyến thử quần áo trong những phòng thử đồ ảo.

Với các kỹ thuật tương tự, các nhà nghiên cứu tại MIT Media Lab của Mỹ đã đào tạo một hệ thống AI với các hình ảnh của thành phố Aleppo (Syria) và sau đó yêu cầu hệ thống này tạo ra các bức ảnh giả tưởng các thành phố khác trên thế giới sẽ trông như thế nào sau sự tàn phá tương tự. Những bức ảnh giả tưởng đã gợi lên sự đồng cảm sâu sắc với những tổn thất mà người dân Syria phải gánh chịu do chiến tranh gây ra.

Tuy nhiên cho đến nay, phần lớn truyền thông đều nói chủ yếu về sự lạm dụng Deepfake vào các mục đích xấu như tống tiền, lừa đảo, phát tán thông tin chính trị sai lệch, can thiệp bầu cử… Năm 2022, một video Deepfake sử dụng gương mặt của Tổng thống Ukraine Volodymyr Zelenskyy trong đó yêu cầu quân đội của mình đầu hàng đã gây chấn động internet. Các nội dung giả mạo có thể được tội phạm lợi dụng để tác động đến giá cổ phiếu của công ty. Video giả mạo giám đốc điều hành với các tuyên bố gây thiệt hại về công ty có thể khiến giá cổ phiếu tụt dốc, trong khi một video giả mạo về bước đột phá công nghệ hoặc việc ra mắt sản phẩm mới có thể dễ dàng nâng giá cổ phiếu.

Các chuyên gia pháp lý lo ngại rằng, Deepfake có thể bị lạm dụng để làm xói mòn niềm tin vào các video và các thiết bị giám sát khác. The New York Times dẫn lại một vụ án tại Anh năm 2019 khi các nhà chức trách phát hiện một đoạn ghi âm được dùng làm bằng chứng tại tòa là giả mạo. Giả mạo kỹ thuật số cũng có thể làm mất uy tín hoặc kích động bạo lực đối với các sĩ quan cảnh sát. Một số chuyên gia dự đoán, với tốc độ phát triển ngày càng tinh vi, chỉ trong vài năm tới 90% nội dung trực tuyến đều không có thật.

Khó khăn của các nhà quản lý

Trong một báo cáo năm 2022, cơ quan thực thi pháp luật châu Âu Europol viết: Số lượng các nội dung Deepfake ngày càng tăng có thể dẫn đến tình trạng công dân không còn chia sẻ những điều thực tế hoặc có thể tạo ra sự nhầm lẫn trong xã hội về nguồn thông tin nào là đáng tin cậy; một tình huống đôi khi được gọi là “ngày tận thế thông tin” hoặc “sự thờ ơ với thực tế”. Các quan chức Anh cũng đã trích dẫn các mối đe dọa liên quan Deepfake, thí dụ như một trang web “hầu như lột trần phụ nữ” khi sử dụng Deepfake để tạo ra các nội dung khiêu dâm và có tới 38 triệu lượt truy cập trong tám tháng đầu năm 2021. Tuy nhiên, tại Anh và Liên minh châu Âu (EU), các đề xuất liên quan quản lý công nghệ này vẫn chưa thành luật cụ thể, mà chủ yếu chỉ dựa vào các quy định bảo vệ thông tin cá nhân và quản lý thông tin giả mạo.

Năm 2019, Mỹ đã thông qua Đạo luật Báo cáo Deepfake, theo đó yêu cầu Bộ An ninh nội địa đưa ra các báo cáo về tình trạng công nghệ giả mạo nội dung số. Giả mạo nội dung số được định nghĩa là việc sử dụng các công nghệ mới nổi, bao gồm AI và kỹ thuật machine learning (máy học), để tạo ra hoặc chỉnh sửa nội dung âm thanh, hình ảnh hoặc văn bản với mục đích đánh lừa. Bộ Quốc phòng Mỹ đang phát triển công nghệ để xác định và chặn các nội dung giả. Trong khi đó, một số công ty phương tiện truyền thông xã hội sử dụng công nghệ blockchain (chuỗi khối) để xác minh nguồn video và hình ảnh trước khi cho phép chúng lên nền tảng của mình.

Deepfake nhìn chung vẫn là hợp pháp, bất chấp các mối đe dọa nghiêm trọng mà công nghệ này có thể gây ra. Deepfake chỉ được xem là bất hợp pháp nếu vi phạm các luật hiện hành như khiêu dâm trẻ em, phỉ báng hoặc kích động thù địch. Ba bang đầu tiên của Mỹ là California, Virginia và Texas đã ban hành luật cụ thể liên quan, khi cấm các nội dung Deepfake nhằm mục đích ảnh hưởng đến các cuộc bầu cử, cấm phổ biến nội dung khiêu dâm Deepfake.

Theo Economic Times, tại Ấn Độ, Thủ tướng Narendra Modi đang yêu cầu các công ty truyền thông xã hội thực hiện “các biện pháp hợp lý và thiết thực” để xóa các hình ảnh Deepfake khỏi nền tảng của họ. Bộ Điện tử và Công nghệ Thông tin (MeitY) của Ấn Độ cho biết, các ứng dụng bao gồm Facebook, Instagram, WhatsApp, Twitter và YouTube có 24 giờ để giải quyết sau khi nhận các khiếu nại liên quan Deepfake do các cá nhân thực hiện. MeitY cũng khuyến khích các công ty thực hiện các biện pháp bảo vệ của riêng đối với nội dung đã được chỉnh sửa hoặc các công cụ học tập sáng tạo khác có thể vi phạm thỏa thuận người dùng.

Các quy định hiện hành của Hàn Quốc đã bao hàm được những nội dung còn tranh cãi về tính pháp lý liên quan công nghệ Deepfake. Hàn Quốc là một trong những quốc gia đầu tiên có các quy định kiểm duyệt trực tuyến. Kể từ tháng 9/2011, Hàn Quốc đã thực thi Đạo luật Bảo vệ thông tin cá nhân, theo đó cấm các tổ chức thu thập và sử dụng thông tin cá nhân mà không có sự đồng ý của chủ thông tin. Năm 2019, Trung Quốc ban hành Quy tắc quản lý dịch vụ tin tức, âm thanh, hình ảnh trên internet, theo đó quy định người cung cấp dịch vụ hoặc người sử dụng dịch vụ không được lợi dụng các công nghệ như AI và thực tế ảo để xuất bản và tuyên truyền tin tức giả trái quy định.

Google bắt đầu cấm người dùng sử dụng nền tảng Colaboratory, một công cụ phân tích dữ liệu, để huấn luyện các hệ thống AI tạo ra Deepfake. Công ty đứng sau Stable Diffusion, một công cụ tạo hình ảnh, đã tung ra một bản cập nhật làm cản trở những người dùng đang cố gắng tạo nội dung khỏa thân và khiêu dâm. Meta, TikTok, YouTube và Reddit đều cấm các nội dung Deepfake nhằm mục đích gây hiểu lầm.

Tuy nhiên, các luật hoặc lệnh cấm có thể gặp khó khăn trong việc ngăn chặn một công nghệ được thiết kế để liên tục thích ứng và cải tiến. Các nhà nghiên cứu từ RAND Corporation đã chứng minh mức độ khó xác định của Deepfake khi họ chiếu một bộ video cho hơn 3.000 người tham gia và yêu cầu họ xác định những video được làm giả. Một phần ba số người tham gia đã xác định sai. Ngay cả một nhóm nhỏ gồm vài chục sinh viên ngành máy học tại Đại học Carnegie Mellon cũng sai hơn 20%.

Các công ty như Microsoft và Adobe hiện cố gắng cải tiến công nghệ kiểm duyệt để phát hiện những điểm không nhất quán trong các nội dung giả mạo. Jared Mondschein, một nhà khoa học vật lý tại RAND Corporation nói về “cuộc chạy đua vũ trang về công nghệ” giữa những người tạo ra nội dung Deepfake và những người cố gắng phát hiện ra nội dung nào là Deepfake. Jared Mondschein cho rằng, chỉ khi có những công cụ đủ tốt để “lật tẩy” Deepfake, khi đó các biện pháp quản lý dựa trên luật pháp mới có thể được triển khai hiệu quả.