Người dùng cần cẩn trọng với Deepfake bởi nguy cơ bị lừa đảo ngày càng cao
Trong cuộc Họp báo thường kỳ tháng 11/2023, ông Nguyễn Phú Lương - Phó Giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC), Cục An toàn thông tin thuộc Bộ TT&TT đã chia sẻ nhiều thông tin đến Deepfake.
Trong thời gian gần đây, tội phạm công nghệ cao có diễn biến phức tạp với nhiều thủ đoạn tinh vi nhằm lừa đảo, chiếm đoạt tài sản của những người "nhẹ dạ cả tin". Đặc biệt, với công nghệ cao, thật/giả lẫn lộn khiến không phải ai cũng có thể phân biệt được và sẽ trở thành mục tiêu tấn công của các đối tượng lừa đảo.
Khi nhận được bất cứ điều gì bất thường, người dùng cần luôn cẩn trọng, kiểm chứng thônng tin.
"Người dân luôn kiểm chứng và kiểm tra lại mọi thông tin trực tuyến. Mỗi người cần hình thành thói quen thận trọng, cảnh giác và tư duy "fact check" (kiểm chứng sự thực) trên không gian mạng. Lấy thông tin từ các nguồn chính thức và đáng tin cậy như các cơ quan, đơn vị và nền tảng tin tức đáng tin cậy. Ngoài ra, không chia sẻ nếu chưa chắc chắn 100% về tính xác thực của nó", phó Giám đốc NCSC khuyến cáo
Đặc biệt, đại diện Cục an toàn thông tin cũng chỉ ra một số công cụ của những hãng công nghệ lớn như Intel Fake Catcher hay Microsoft Video Authenticator, có thể kiểm chứng video sử dụng deepfake hay không. Các công cụ này sử dụng thuật toán AI tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh.
Việc tạo ra video deepfake dễ dàng, trong khi đó gần như chưa có giải pháp nào để chặn lọc.
"Bối cảnh chung trên thế giới là gặp khó khăn trong việc chặn lọc những video deepfake khỏi không gian mạng. Giải pháp hiện tại là cố gắng tuyên truyền, khuyến cáo người dân thận trọng với mọi thông tin tiếp cận được, luôn tuân thủ các nguyên tắc về an toàn thông tin", ông Lương chia sẻ.
Đầu tiên, người dùng mạng cần tìm cách kiểm chứng mọi thông tin nhận được bằng cách kiểm tra chéo giữa các nguồn khác nhau. Trong trường hợp nhận được video từ người thân với tình huống hoặc yêu cầu bất ngờ, hãy cố gắng kéo dài cuộc gọi video call để biết chắc đang nói chuyện với người thật chứ không phải đoạn video dựng sẵn.
Sau đó, người dùng cần xác minh lại qua các kênh khác, ưu tiên các kênh trực tiếp hoặc gọi điện thoại qua mạng viễn thông.
Trong hầu hết các trường hợp, hình thức lừa đảo trực tuyến này nhằm lừa đảo tài chính. Do đó, khi người dân nhận được các cuộc gọi video liên quan đến yêu cầu chuyển tiền, vay mượn thì cần xác nhận kỹ và trong mọi trường hợp không chuyển tiền cho các số tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè.
"Có một số công cụ kiểm chứng video có phải deepfake hay không, ví dụ như Intel Fake Catcher hay Microsoft Video Authenticator", ông Lương cho biết.
Ngoài ra, khi nhìn bằng mắt thường có thể thấy khuôn mặt nhân vật trong video deepfake ít biểu cảm, ánh sáng kỳ lạ và bóng đổ không đúng vị trí, nhân vật không có các hành động đưa tay lên gãi mặt hoặc dụi mắt, vì các hành động này sẽ gây lỗi cho AI.