Theo văn bản số 4945/CT-TU do đồng chí Quản Minh Cường, Phó Bí thư Tỉnh ủy Đồng Nai thay mặt Ban Thường vụ Tỉnh ủy ký, yêu cầu các cấp ủy trực thuộc, ban cán sự đảng, đảng đoàn, Ban Thường vụ Tỉnh đoàn, các ban đảng và Văn phòng Tỉnh ủy chỉ đạo các đơn vị tăng cường tuyên truyền sâu rộng về phương thức lừa đảo chiếm đoạt tài sản bằng thủ đoạn giả mạo cuộc gọi video đến các cơ quan, doanh nghiệp, người dân.
Khuyến cáo cán bộ, công chức, viên chức và người dân khi nhận cuộc gọi, tin nhắn vay mượn tiền, chuyển tiền thông qua mạng xã hội cần trực tiếp xác minh trực tiếp với đối tượng người gọi, không làm theo chỉ đạo chuyển tiền của bên thứ ba.
Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo chiếm đoạt tài sản cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.
Vận động cán bộ, công chức, viên chức, người dân thường xuyên truy cập vào trang facebook của Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao Công an tỉnh Đồng Nai http://facebook.com/anm.cadongnai, kịp thời nắm bắt các phương thức, thủ đoạn công nghệ cao của tội phạm.
Giao Đảng ủy Công an tỉnh Đồng Nai chủ trì, phối hợp với Ban Cán sự đảng Viện Kiểm sát nhân dân tỉnh chỉ đạo tổ chức tốt công tác tiếp nhận tin báo, tố giác tội phạm; sử dụng đồng bộ các biện pháp nghiệp vụ để nắm tình hình, chủ động phát hiện, đấu tranh với hoạt động sử dụng công nghệ cao lừa đảo chiếm đoạt tài sản.
Đối với những trường hợp đủ điều kiện cần khẩn trương xem xét khởi tố, truy tố theo thẩm quyền.
Theo Tỉnh ủy Đồng Nai, thời gian qua, tội phạm sử dụng công nghệ cao lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp.
Trong đó, có thủ đoạn hack các tài khoản mạng xã hội hoặc tạo tài khoản giả mạo, sau đó vay mượn tiền và chiếm đoạt tài sản.
Tinh vi hơn, hiện nay các đối tượng phạm tội lợi dụng công nghệ Deepfake để tạo các cuộc gọi giả mạo có độ chính xác cao, rất khó phân biệt thật giả để lừa đảo chiếm đoạt tài sản.
Tuy nhiên, video do đối tượng tạo ra sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện.
Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét, giống với cuộc gọi video có tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động/wifi yếu.
Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một số người ngoài đời thực, Deepfake sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một số người khác; sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực.