05/05/2023 (11:21:39)
Dùng AI giả mạo người thân qua cuộc gọi video là hình thức lừa đảo trực tuyến mới. Người nhận cuộc gọi cần chú ý đến các dấu hiệu hình ảnh, âm thanh để tránh trở thành nạn nhân.
Cuộc gọi video cũng không hoàn toàn đáng tin cậy, vì kẻ lừa đảo có thể sử dụng AI để tái tạo khuôn mặt và giọng nói của người khác. Ảnh: HN. |
“Gần đây ở Việt Nam xuất hiện hình thức lừa đảo trực tuyến mới, cuộc gọi video deepfake. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo để tạo ra video trong đó đầu dây gọi đến mang khuôn mặt người thân, bạn bè sau đó yêu cầu chuyển tiền”, đại diện Bộ Thông tin và Truyền thông (TTTT) cảnh báo tại cuộc họp báo thường kỳ ngày 5/5.
Cơ quan này cho biết với các kỹ thuật deepfake hiện nay của các đối tượng lừa đảo ở Việt Nam, người nhận cuộc gọi có thể nhìn thấy các dấu hiệu đáng ngờ. Cụ thể, “nhân vật chính” xuất hiện trong video có khuôn mặt thiếu cảm xúc và “trơ” khi nói, tư thế lúng túng, hướng đầu và cơ thể không nhất quán.
Về bối cảnh, ánh sáng và bóng đổ trong video không đúng vị trí, tạo cảm giác giả tạo và thiếu tự nhiên. Âm thanh trong clip sẽ không khớp với hình ảnh hoặc chuyển động môi của người nói, nhiều tiếng ồn hoặc không có âm thanh.
“Các công cụ deepfake mà các đối tượng lừa đảo sử dụng tại Việt Nam cho ra kết quả chất lượng không cao. Tuy nhiên, do thời lượng của video thường ngắn, tình tiết khẩn cấp, sử dụng hình ảnh và giọng nói người thân, nên người nhận cuộc gọi dễ bị thao túng tâm lý, không phát hiện ra những điểm bất thường và làm theo hướng dẫn, chuyển những khoản tiền lớn”, ông Vũ Ngọc Sơn, Giám đốc Công nghệ Công ty Công nghệ An ninh mạng Quốc gia Việt Nam NCS, nói với Zing.
Với các công cụ mã nguồn mở, đi kèm hướng dẫn sử dụng, kẻ lừa đảo dễ dàng dựng các đoạn video với khuôn mặt người khác. Ảnh: HN. |
Bộ TTTT cũng lưu ý một dấu hiệu đáng ngờ và dễ thấy là số tài khoản yêu cầu chuyển tiền đến không phải của người đang thực hiện cuộc gọi.
“Ngoài các giải pháp công nghệ, chúng ta cần đánh giá lại gốc của vấn đề là phần lớn lừa đảo liên quan đến tài chính. Để lấy được tiền của nạn nhân, kẻ lừa đảo cần có tài khoản ngân hàng. Trong khi đó, chúng ta vẫn còn những tài khoản ngân hàng không chính chủ, chỉ cần 2-3 triệu là mua được”, ông Trần Quang Hưng, Phó cục trưởng Cục An toàn thông tin (Bộ TTTT), cho biết tại họp báo.
“Khi nhận cuộc gọi có bất kỳ dấu hiệu bất thường nào, người nhận cần cố gắng kéo dài cuộc gọi để biết chắc đang nói chuyện với người thật chứ không phải nói chuyện với một đoạn video deepfake dựng sẵn. Ngoài ra, tuyệt đối không chuyển tiền cho các tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè”, ông Ngọc Sơn lưu ý.
Nhóm người săn lùng loại mã độc nguy hiểm nhất thế giới công nghệ
Trong quyển sách mới, Renee Dudley và Daniel Golden đưa độc giả đến gần hơn với cuộc chiến thầm lặng của những chuyên gia công nghệ toàn cầu, chống lại kẻ đứng sau ransomware.
Hoàng Nam
Theo: ZINGNEWS.VN |