Vũ khí nguy hiểm
Theo The New York Times, Deepfake là loại công nghệ cho phép ghép khuôn mặt của một người này sang cho một người khác trong video với độ chính xác khá cao. Deepfake được xây dựng trên nền tảng Machine Learning (máy tự học) mã nguồn mở của Google. Nhờ sử dụng AI, nền tảng trên sẽ quét các video và ảnh chân dung của một người, hợp nhất với một video riêng biệt khác rồi thay thế chi tiết trên gương mặt như mắt, mũi, miệng... sao cho giống và tự nhiên nhất có thể.
Các nhà khoa học cho biết, trong lĩnh vực sản xuất video, sử dụng Deepfake sẽ giúp các nhà làm hình ảnh dễ dàng và nhanh chóng hơn trong công việc, thay vì phải quay đi quay lại nhiều lần các cảnh quay thì chỉ cần sử dụng hình ảnh sẵn có. Việc sử dụng Deepfake được cho là cũng khá đơn giản. Tất cả những gì người sử dụng cần là một ổ cứng máy tính có card đồ họa đủ mạnh, một kho hình ảnh của người mình muốn đổi mặt, một phần mềm ghép mặt đơn giản và tất nhiên là vốn kiến thức dày dặn về tin học.
Tuy nhiên, ngay từ khi xuất hiện, Deepfake đã cho thấy các mặt trái vô cùng nguy hiểm. Theo Reuters, tháng 12-2017, công nghệ này bắt đầu trở thành một từ khóa trên internet sau khi người dùng có tên “Deepfakes” công bố trên trang web giải trí, dịch vụ giao tiếp xã hội Reddit một loạt video khiêu dâm, trong đó có gương mặt những diễn viên nổi tiếng như Scarlett Johansson hay Gal Gadot. Sau đó dư luận phát hiện những video đó là giả mạo. Vì người dùng này đã sử dụng AI để ghép mặt các ngôi sao Hollywood vào cơ thể của những diễn viên khiêu dâm. Reddit đã lập tức phải đóng một loạt mục chia sẻ video. Dù vậy, Deepfake đã kịp để lại sự lo lắng và hoang mang cho nhiều người.
Thời gian đầu, công nghệ Deepfake thường được kẻ xấu dùng để ghép mặt ai đó vào các đoạn phim khiêu dâm nhằm gây tai tiếng cho các nạn nhân hoặc để tăng lượt yêu thích trên các trang mạng xã hội. Tuy nhiên, thời gian gần đây, các video Deepfake trong nhiều lĩnh vực khác nhau với mục đích khác nhau xuất hiện ngày càng nhiều trên internet.
Ngày 17-4-2018, một đoạn video cho thấy hình ảnh một người giống hệt cựu Tổng thống Mỹ Barack Obama xuất hiện trên internet. Trong đoạn video này, nhân vật giống hệt ông Obama đã dùng những lời lẽ không mấy hay ho để chỉ trích đương kim Tổng thống Mỹ Donald Trump. Dù sau đó công chúng phát hiện video này không có thật, nhưng nó đã được lan truyền rất nhanh và ít nhiều gây ra hậu quả không đáng có.
Mới đây nhất xuất hiện một video trong đó một người giống như Tổng Giám đốc điều hành (CEO) Facebook là Mark Zuckerberg đang đề cập một triển lãm có tên là “Spectre”. Trong video, người này nói: “Hãy thử tưởng tượng điều này trong một giây. Một người có thể có toàn quyền kiểm soát hàng tỷ dữ liệu bị đánh cắp của tất cả mọi người. Tất cả bí mật, cuộc sống của họ, tương lai của họ. Nhờ Spectre, tôi thấy rằng bất cứ ai kiểm soát dữ liệu, có thể kiểm soát tương lai”. Phát ngôn này đã khiến cho nhà sáng lập Facebook vấp phải sự chỉ trích mạnh mẽ từ phía dư luận. Tuy nhiên, sau đó Mark Zuckerberg đã chứng minh được đoạn video trên sử dụng công nghệ Deepfake để “hãm hại” anh.
Kiểm soát khó khăn
Theo The Guardian, trong thời đại công nghệ phát triển nhanh chóng như hiện nay, việc có thể có được một đoạn video giả, sử dụng công nghệ Deepfake là một điều khá đơn giản. Thậm chí, trên internet đã xuất hiện dịch vụ nhận làm các loại hình video kể trên nhằm phục vụ những mục đích xấu. Trên một số diễn đàn mà người tham gia được giữ ẩn danh, người ta chỉ cần bỏ ra 20 USD là đã có thể sở hữu một video ghép mặt.
Deepfake thậm chí còn có thể gây ra các hậu quả khó lường khi được sử dụng với mục đích xấu trong chính trị. Năm ngoái tại Trung Phi, một video giả mạo đã được đưa lên mạng với ý đồ cho thấy sức khỏe của Tổng thống Gabon Ali Bongo không tốt. Đây được xem là ngòi nổ cho một cuộc đảo chính quân sự không thành tại quốc gia này.
Ngày 13-6 vừa qua, Adam Schiff - đại diện của đảng Dân chủ ở Mỹ, đã cảnh báo công nghệ Deepfake có thể gây ra những hậu quả nghiêm trọng trong cuộc bầu cử Tổng thống Mỹ vào năm 2020, khi gần đây liên tục xuất hiện các video giả nhằm làm xấu hình ảnh các ứng cử viên tổng thống.
Trước những nguy cơ từ Deepfake, tháng 8-2018, các nhà nghiên cứu tại Cơ quan Chỉ đạo các dự án nghiên cứu quốc phòng tiên tiến (DARPA), thuộc Bộ Quốc phòng Mỹ đã cho ra mắt một công cụ cho phép nhận diện video sử dụng công nghệ ghép mặt. Công cụ này có thể phân tích quang phổ hoặc ánh sáng của bức ảnh để nhận ra những điểm khác biệt.
Ở thời điểm hiện tại, nếu tinh ý, vẫn có thể nhận ra video giả bằng mắt thường. Hơn nữa, do sức mạnh xử lý hình ảnh của máy tính chưa đạt tới sự hoàn hảo, video sử dụng Deepfake vẫn để lộ những điểm có thể nhận biết là bị làm giả như khẩu hình của người nói sai lệch so tiếng nói, có hình ảnh không ăn khớp với hình nền. Tuy nhiên, người xem phải để ý mới nhận ra, còn những ai chỉ xem lướt qua sẽ không thể phát hiện. Nhưng các chuyên gia cảnh báo, với sự phát triển nhanh chóng của công nghệ, trong thời gian tới những video Deepfake sẽ đạt tới tầm cao khác. Do đó, các nhà khoa học phát minh ra công cụ nhận diện video Deepfake thừa nhận họ vẫn phải liên tục phát triển công cụ này để chạy đua với những kỹ thuật làm giả mới nhất.
Trong khi đó, đến nay các nền tảng mạng xã hội như Facebook chưa có một chính sách rõ ràng đối với Deepfake, vì chưa biết nên xác định video đó vào mục tin giả nói chung, hay cần tách biệt video sử dụng công nghệ Deepfake sang một danh mục mới nên vẫn cho phép video giả về ông chủ Mark Zuckerberg tồn tại trên mạng xã hội này. Theo CEO Facebook, không chỉ riêng Facebook mà nhiều trang mạng xã hội khác đều phải đối mặt thách thức từ Deepfake. Các nền tảng mạng xã hội trên internet đang không ngừng nỗ lực để ngăn chặn thông tin giả mạo. Đại diện Twitter, Reddit cũng công nhận Deepfake là một vấn đề hóc búa và nan giải.
Giới phân tích cho rằng, AI nói chung cũng giống như mọi sự tiến bộ khác của công nghệ, nếu sử dụng đúng cách sẽ khiến cuộc sống con người trở nên thú vị và tiện lợi hơn. Còn ngược lại, chúng sẽ gây ra những hệ lụy nghiêm trọng. Do đó, cần phải có biện pháp kiểm soát hiệu quả mặt trái của những công nghệ này.
Trong khi Deepfake vẫn đang làm giới chức thế giới loay hoay tìm cách ứng phó, nhiều nhà khoa học đã khuyến cáo mỗi cá nhân cần phải tự bảo vệ mình, tránh trở thành nạn nhân của công nghệ trên. Các nhà khoa học cho rằng, càng nhiều hình ảnh, video cá nhân được đăng lên internet thì khả năng bị làm giả danh tính bằng Deepfake càng cao. Để hạn chế đến mức thấp nhất khả năng bị làm giả danh tính, trước mắt, mỗi cá nhân hãy tự khống chế số lượng người có thể xem video và hình ảnh của chính mình.