Trong thời gian gần đây, chúng ta đã chứng kiến nhiều trường hợp lừa đảo và gian lận trực tuyến thông qua việc giả danh các cơ quan nhà nước, công an, ngân hàng, công ty tài chính và thậm chí cả người thân trong gia đình để chiếm đoạt tài sản. Phần lớn các hình thức lừa đảo này đều sử dụng công nghệ Deepfake, một công nghệ trí tuệ nhân tạo cho phép tạo ra các video, hình ảnh và âm thanh giả mạo với độ chân thực cao. Vì vậy, khả năng nhận biết video Deepfake đóng vai trò quan trọng trong việc tránh bị lừa đảo và nhận diện thông tin sai lệch. Do đó, việc nắm bắt thông tin để phát hiện video Deepfake là cực kỳ cần thiết cho người dùng Internet.
Kiểm tra các chuyển động trên khuôn mặt
Một trong các dấu hiệu để nhận biết video giả danh là chuyển động mắt không tự nhiên và thiếu chớp mắt. Công nghệ Deepfake vẫn đang đối mặt với nhiều hạn chế, ví dụ như không thể hoàn toàn mô phỏng được cách chớp mắt tự nhiên của con người hoặc tái tạo chính xác các chuyển động của mắt.
Nếu khuôn mặt của người trong video không thể hiện cảm xúc phù hợp với nội dung đang được diễn đạt, đó có thể là dấu hiệu của một video giả mạo. Ngoài ra, các chi tiết khác như màu da, tóc, răng của nhân vật trong video không giống với thực tế, hoặc xuất hiện các ánh sáng kỳ lạ do việc sử dụng trí tuệ nhân tạo để tái tạo, cũng là những dấu hiệu để nhận biết video Deepfake.
Chất lượng âm thanh
Công nghệ Deepfake thường tập trung vào tái tạo hình ảnh và video hơn là âm thanh, do đó chất lượng âm thanh cũng có thể giúp người dùng nhận biết được video được làm giả bởi Deepfake. Người dùng nên chú ý đến chuyển động của miệng khi người trong video nói, để kiểm tra xem âm thanh có phù hợp với hình ảnh hay không. Những dấu hiệu này sẽ giúp người dùng nhận biết video đó có thể là giả mạo.
Tư thế của người gọi
Điểm yếu của Deepfake hiện tại là nó không thể tái tạo được các tư thế chuyển động của con người một cách hoàn hảo vì thi thoảng người gọi trong video sẽ xuất hiện những tư thế “kỳ dị”, không giống con người. Những chuyển động được công nghệ này tái tạo trong video thường không được tự nhiên (ví dụ như tư thế lúng túng, hướng đầu và cơ thể trong video không nhất quán với nhau).
Với sự phát triển mạnh mẽ của trí tuệ nhân tạo, việc tạo ra một video Deepfake để mạo danh người khác đã trở nên dễ dàng hơn trước rất nhiều. Đây là một phương thức lừa đảo rất nguy hiểm, bởi nó lợi dụng sự sợ hãi và thiếu hiểu biết của người dùng. Vì vậy, người dùng cần trang bị những kiến thức cơ bản để phòng tránh chúng, không nên tin vào những cuộc gọi, tin nhắn hoặc email có nội dung khả nghi. Nếu có dấu hiệu lừa đảo, người dùng nên liên hệ trực tiếp với cơ quan chức năng để xác minh thông tin và báo cáo với cơ quan công an gần nhất.