Bộ Công an khuyến cáo người dân cảnh giác trước cuộc gọi lừa đảo "Deepfake"

VOV.VN - Bộ Công an cho biết, thời gian gần đây, một số đối tượng lợi dụng công nghệ "Deepfake" để thực hiện các cuộc gọi video với hình ảnh, khuôn mặt giả mạo để lừa đảo "nạn nhân" nhằm thực hiện các hành vi vi phạm pháp luật.

Bộ Công an khuyến cáo người dân những thông tin để nhận diện và phòng ngừa đối với loại tội phạm này. Theo Bộ Công an, “Deepfake” đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính nên khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm. 

Dấu hiệu nhận biết các cuộc gọi này thường là: Thời gian gọi thường rất ngắn chỉ vài giây; Khuôn mặt thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau; Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên; Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh; Ngắt giữa chừng, bảo là mất sóng, sóng yếu... Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.

Bộ Công an khuyến cáo người dân, nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin: Liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không; Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không; Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.

Mời quý độc giả theo dõi VOV.VN trên

Tin liên quan

Bộ TT&TT nêu cách nhận diện cuộc gọi lừa đảo deepfake
Bộ TT&TT nêu cách nhận diện cuộc gọi lừa đảo deepfake

VOV.VN - “Dấu hiệu nhận diện cuộc gọi lừa đảo deepfake là khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán, màu da bất thường, kẻ gian thường ngắt giữa chừng rồi báo mất sóng, sóng yếu”.

Bộ TT&TT nêu cách nhận diện cuộc gọi lừa đảo deepfake

Bộ TT&TT nêu cách nhận diện cuộc gọi lừa đảo deepfake

VOV.VN - “Dấu hiệu nhận diện cuộc gọi lừa đảo deepfake là khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán, màu da bất thường, kẻ gian thường ngắt giữa chừng rồi báo mất sóng, sóng yếu”.

Lừa đảo bằng công nghệ Deepfake: Chuyên gia chỉ rõ cách thức phòng tránh
Lừa đảo bằng công nghệ Deepfake: Chuyên gia chỉ rõ cách thức phòng tránh

VOV.VN - Dù đã được cảnh báo bởi các thông tin lừa đảo chuyển tiền qua mạng xã hội, nhưng ít ai ngờ đến việc gọi video call xác thực người nhà là cách an toàn nhất mà giờ cũng bị làm giả.

Lừa đảo bằng công nghệ Deepfake: Chuyên gia chỉ rõ cách thức phòng tránh

Lừa đảo bằng công nghệ Deepfake: Chuyên gia chỉ rõ cách thức phòng tránh

VOV.VN - Dù đã được cảnh báo bởi các thông tin lừa đảo chuyển tiền qua mạng xã hội, nhưng ít ai ngờ đến việc gọi video call xác thực người nhà là cách an toàn nhất mà giờ cũng bị làm giả.

Vạch trần tội phạm sử dụng công nghệ Deepfake ghép mặt và giọng nói để lừa đảo
Vạch trần tội phạm sử dụng công nghệ Deepfake ghép mặt và giọng nói để lừa đảo

VOV.VN - Deepfake là công nghệ tái tạo khuôn mặt, giọng nói bằng trí tuệ nhân tạo. Ban đầu công nghệ này được tạo nên với mục đích giải trí, nhưng hiện nay đang bị các đối tượng lừa đảo qua mạng sử dụng nhằm chiếm đoạt tài sản.

Vạch trần tội phạm sử dụng công nghệ Deepfake ghép mặt và giọng nói để lừa đảo

Vạch trần tội phạm sử dụng công nghệ Deepfake ghép mặt và giọng nói để lừa đảo

VOV.VN - Deepfake là công nghệ tái tạo khuôn mặt, giọng nói bằng trí tuệ nhân tạo. Ban đầu công nghệ này được tạo nên với mục đích giải trí, nhưng hiện nay đang bị các đối tượng lừa đảo qua mạng sử dụng nhằm chiếm đoạt tài sản.

Liên minh công nghệ xây dựng tiêu chuẩn chung đối phó ‘deepfake’
Liên minh công nghệ xây dựng tiêu chuẩn chung đối phó ‘deepfake’

Các gã khổng lồ công nghệ phần mềm và phần cứng đang bắt tay nhau xây dựng tiêu chuẩn rộng rãi về tính xác thực.

Liên minh công nghệ xây dựng tiêu chuẩn chung đối phó ‘deepfake’

Liên minh công nghệ xây dựng tiêu chuẩn chung đối phó ‘deepfake’

Các gã khổng lồ công nghệ phần mềm và phần cứng đang bắt tay nhau xây dựng tiêu chuẩn rộng rãi về tính xác thực.

Nhiều chính khách châu Âu bị Deepfake lừa
Nhiều chính khách châu Âu bị Deepfake lừa

Giữa tuần qua, các nghị sĩ Hà Lan đã trò chuyện qua Zoom với một kẻ mạo danh chính khách Leonia Volkov bằng công nghệ Deepfake.

Nhiều chính khách châu Âu bị Deepfake lừa

Nhiều chính khách châu Âu bị Deepfake lừa

Giữa tuần qua, các nghị sĩ Hà Lan đã trò chuyện qua Zoom với một kẻ mạo danh chính khách Leonia Volkov bằng công nghệ Deepfake.