Ngăn chặn các cuộc gọi lừa đảo deepfake sử dụng trí tuệ nhân tạo

NDO - Ngày 5/5, tại cuộc họp báo thường kỳ, Bộ Thông tin và Truyền thông cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video deepfake.
0:00 / 0:00
0:00
Ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin tại cuộc họp báo ngày 5/5.
Ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin tại cuộc họp báo ngày 5/5.

Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến

Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.

Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Đối với các cuộc gọi deepfake như hiện nay thì bằng mắt thường vẫn có thể có một số các dấu hiệu để nhận biết như thời gian gọi thường rất ngắn chỉ vài giây. Khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế của họ trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể của họ trong video không nhất quán với nhau…

Ngoài ra, cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

Có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu...Tóm lại, các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Người dân nên luôn cảnh giác và tuyệt đối bình tĩnh.

Trong lúc chúng ta chờ giải pháp kỹ thuật để ngăn chặn triệt để được các hình thức này thì rất cần các cơ quan truyền thông tuyên truyền rộng rãi tới người dân để có thể nắm bắt kịp thời các thông tin và thủ đoạn để đề phòng.

Công nghệ Deepfake, sử dụng AI để tạo ra hình ảnh giả mạo, đang được những kẻ lừa đảo trực tuyến dùng vào mục đích lừa nạn nhân chuyển tiền.

Chia sẻ tại cuộc họp báo thường kỳ, ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin cho biết, ngay từ thời điểm nhận được thông tin phản ánh từ người dân, Cục An toàn thông tin đã cảnh báo rộng rãi trên các phương tiện thông tin đại chúng về hình thức lừa đảo mới này.

Không chỉ Việt Nam mà nhiều nước trên thế giới, cùng các công ty công nghệ lớn đang chung tay để tìm giải pháp kỹ thuật nhằm xử lý các vụ lừa đảo Deepfake. Ngăn chặn lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Tuy nhiên, ở góc độ căn cơ, gốc rễ của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính.

Theo ông Hưng, để lấy được tiền của nạn nhân, kẻ lừa đảo cần đến các tài khoản chuyển tiền vào. Những đối tượng này sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ với giá rẻ.

“Để ngăn chặn tình trạng này, chúng ta cần chặn các tài khoản không chính chủ này bằng cách đồng bộ thông tin tài khoản ngân hàng, cùng thuê bao điện thoại với cơ sở dữ liệu quốc gia về dân cư. Nếu vậy, số lượng các vụ lừa đảo trực tuyến sẽ giảm mạnh”, Phó Cục trưởng Cục An toàn thông tin nói.

Ông Trần Quang Hưng cũng cho hay, công nghệ thay đổi hàng ngày, đây chỉ là công cụ được những kẻ lừa đảo sử dụng. Việc chống lừa đảo trực tuyến không đơn giản là vấn đề kỹ thuật mà cần có sự phối hợp đồng bộ chung giữa cả mặt công nghệ, pháp lý và cơ chế.