“Công nghệ lừa đảo” Deepfake, AI

Ảnh minh họa.
Ảnh minh họa.
0:00 / 0:00
0:00
(PLVN) -Từ lâu, không gian mạng đã trở thành môi trường quen thuộc cho “đạo tặc” hoành hành với các hình thức lừa đảo không ngừng gia tăng và ngày càng tinh vi hơn. Xuất hiện mới gần đây, công nghệ lừa đảo Deepfake, AI đang lợi dụng sự trung thực và tin cậy của video, hình ảnh để lừa đảo chuyển tiền, vay tiền…

Cách thức lừa đảo tinh vi

Chỉ vì nghe cuộc gọi video của con gái mà chị Đ.Vân (45 tuổi, Hà Nội) đã mất trắng số tiền lên tới 30 triệu đồng cho “đạo tặc” trên không gian mạng. Sự việc xảy ra khi chị Đ.Vân nhận được tin nhắn nhờ chuyển tiền từ tài khoản Facebook của con gái sinh sống bên nước ngoài. Nội dung tin nhắn cô con gái nhờ mẹ chuyển 30 triệu tiền Việt sang số tài khoản của bạn để chuyển đổi ngoại tệ. Đặc biệt, cô con gái còn liên tục nhắn tin giục giã với lý do đang cần gấp và còn bảo sẽ được tiền cảm ơn là 3 triệu đồng.

Chị Đ.Vân cho biết, khi nhận được tin nhắn của con gái, bản thân chị cũng đã cẩn thận gọi video lại để kiểm tra. Tuy video có hơi mờ và âm thanh chập chờn nhưng chính mắt chị đã nhìn thấy con gái đang nghe điện nên chị hoàn toàn yên tâm chuyển khoản 30 triệu đồng đến số tài khoản của bạn mà trước đó con gái đã gửi. Sau khi chuyển xong, cô con gái muốn mẹ chuyển thêm 15 triệu đồng nữa để được tròn 5 triệu tiền cảm ơn nhưng vì tiền trong tài khoản không đủ nên chị Đ.Vân không thể chuyển thêm được.

Kết thúc cuộc trò chuyện, con gái chị Đ.Vân còn cảm ơn và hẹn tí sẽ chuyển tiền lại cho mẹ luôn kèm cả tiền cảm ơn. Chỉ đến chiều khi con gái chị gọi điện về báo mình đã bị kẻ gian hack nick Facebook thì hai mẹ con mới tá hoả biết mình đã bị lừa tiền. Chị cho biết bọn lừa đảo rất tinh vi khi lợi dụng việc trái múi giờ để thực hiện hành vi, chúng chọn khung giờ bên nước ngoài đang là buổi đêm, còn Việt Nam đang là buổi sáng để con gái chị không sớm phát giác sự việc.

Chuyện thật tưởng như đùa nhưng tại Việt Nam đã có nhiều người dùng cho biết mình là nạn nhân của chiêu lừa đảo từ cuộc gọi video Deepfake. Hầu hết các trường hợp đều chung một kịch bản là sau khi kẻ lừa đảo chiếm đoạt tài khoản Zalo, Facebook của người dùng, chúng sẽ tiến hành nhắn tin mượn tiền của những người trong danh sách bạn bè của nạn nhân với những lý do như nhà có việc gấp, người thân cấp cứu trong bệnh viện cần tiền,… Đồng thời thực hiện cuộc gọi video mạo danh Deepfake để tăng độ tin cậy nhằm lừa đảo thành công hơn.

Trong cách thức lừa đảo này, công nghệ Deepfake hay AI đóng vai trò rất quan trọng và là “quân bài chốt” để phi vụ thành công. Deepfake là công nghệ mô phỏng hình ảnh khuôn mặt con người, được đặt tên theo cụm từ được kết hợp giữa “deep learning” (máy học) và “fake” (giả). Với công nghệ tạo ra các đoạn video với hình ảnh khuôn mặt nhân vật giống hệt hình ảnh người dùng mong muốn, Deepfake thường được dùng để phục vụ giải trí. Nhưng giờ đây một số thành phần lại sử dụng cho mục đích lừa đảo, giả mạo, bôi nhọ hay thậm chí làm ra tin giả dạng video.

Nếu như ngày trước các cuộc gọi video giả danh thường không sắc nét và dễ bị phát hiện thì ngày nay, các đối tượng nhận thấy việc lừa đảo qua không gian mạng mang lại nguồn thu bất chính lớn, nhiều nhóm đối tượng đã đầu tư nhiều tiền vào máy móc, thiết bị phần cứng, phần mềm chất lượng cao hơn, nâng cao chất lượng hình ảnh đầu ra, tạo video hình ảnh Deepfake giống như thật, khó có thể phát hiện bằng mắt thường.

Để làm được điều đó, các đối tượng thường dùng các chiêu trò để thu thập hình ảnh chân dung của người dùng ở các góc cạnh khác nhau. Chỉ cần có video người dùng nhìn thẳng, nghiêng trái, nghiêng phải,… là đã có thể tái tạo video hình ảnh chất lượng, cách này sẽ chính xác và sắc nét hơn thay vì thu thập hình ảnh trên Internet.

Theo chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc công nghệ Công ty Công nghệ an ninh mạng NCS, về bản chất, các đối tượng sẽ sử dụng clip hình ảnh này để làm đầu vào cho công nghệ AI, Deepfake để thực hiện hành vi lừa đảo hoặc bán dữ liệu này cho các đối tượng để thực hiện nhiều mục đích khác, chứ không thể dùng để làm eKYC trực tiếp được. Các công nghệ eKYC của ngân hàng hiện có thể nhận biết, phân biệt được đó có phải là người thật hay là một clip, hình ảnh chụp.

Vậy là thông qua các ứng dụng OTT (cung cấp nội dung hình ảnh, tin nhắn, gọi điện như Viber, Zalo, Messenger...) kẻ xấu đã có thể thực hiện cuộc gọi thoại, thậm chí cả video với giọng nói, hình ảnh là của người thân, người quen,… khiến người nhận rất khó phân biệt thật giả và sập bẫy lừa đảo cuộc gọi Deepfake.

Cảnh giác trước các cuộc gọi

Những cuộc gọi video trở thành “miếng mồi ngon” cho tội phạm mạng. (Ảnh - TGDĐ).

Những cuộc gọi video trở thành “miếng mồi ngon” cho tội phạm mạng. (Ảnh - TGDĐ).

Cho đến thời điểm hiện tại, công nghệ lừa đảo Deepfake, AI là một trong những chiêu thức lừa đảo tinh vi nhất trên không gian mạng. Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh - thứ tin tưởng nhất để có thể xác minh.

Để tránh trở thành nạn nhân của cuộc gọi lừa đảo Deepfake các chuyên gia an ninh mạng khuyến cáo người dùng không nên tin ngay những cuộc gọi yêu cầu cung cấp thông tin, số tài khoản, chuyển tiền… qua mạng xã hội. Người dùng cần phải nhận biết, nâng cao cảnh giác trước các thủ đoạn lừa đảo này.

Bộ Công an khuyến cáo người dân những thông tin để nhận diện và phòng ngừa đối với loại tội phạm này. Theo đó, phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Nên khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm. Đặc biệt cần chú ý đến những dấu hiệu nhận biết để cảnh giác như thời gian gọi thường rất ngắn chỉ vài giây.

Khuôn mặt thiếu tính cảm xúc và khá “trơ” khi nói, hoặc tư thế trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau… Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên.

Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Ngắt giữa chừng, bảo là mất sóng, sóng yếu... Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Nhìn chung người nhận cuộc gọi cần chú ý vào các tiểu tiết để có thể tinh mắt nhận ra các dấu hiệu bất thường.

Ngoài ra, người dân cần chú ý phòng tránh bằng cách khi nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin. Liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không. Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền, nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch.

Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không. Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.

Chuyên gia an ninh mạng Trung tâm Giám sát An toàn không gian mạng quốc gia - Cục An toàn thông tin (Bộ Thông tin và Truyền thông) Ngô Minh Hiếu (Hiếu PC) cho biết, lừa đảo Deepfake được tội phạm quốc tế đã và đang áp dụng từ hai ba năm qua. Do vậy, khi tội phạm trong mạng trong nước bắt đầu biết nhiều hơn cách làm, đánh cắp video, hình ảnh, rồi cắt ghép sau đó dùng những công cụ để tạo Deepfake thì lúc đó có thể sẽ tạo ra “một làn sóng lừa đảo thế hệ 4.0”.

“Làn sóng lừa đảo này sẽ khiến nhiều người lâu nay rất khó bị lừa, người cẩn thận nhưng giờ cũng có thể sẽ là đối tượng bị lừa. Đối tượng cũng có thể là những người trung niên trở lên sẽ dễ bị lừa nhất vì họ thiếu kiến thức về an toàn thông tin, hiểu biết về công nghệ và khó nhận biết kiểu lừa này nếu không có được sự chia sẻ hướng dẫn an toàn trên không gian mạng”, Hiếu PC nói.

Đọc thêm

Viettel triển khai thương mại mạng 5G Open RAN

Toàn cảnh sự kiện 5G ORAN Vietnam Connect 2024
(PLVN) - Ngay từ đầu năm 2025, Viettel sẽ Ngay từ đầu năm 2025, Viettel sẽ triển khai hơn 300 trạm 5G Open RAN tại một số tỉnh thành, tiến tới mở rộng quy mô lớn tại Việt Nam và thị trường quốc tế...

Câu chuyện người Việt học tiếng Anh cùng AI

Các khách mời trải nghiệm nền tảng học tiếng Anh FSEL. (Ảnh: PV)
(PLVN) - Với thông điệp An English Center in Your Pocket (Trung tâm tiếng Anh nhỏ gọn trong túi bạn), FSEL - nền tảng học ngoại ngữ tương tác cùng AI (trí tuệ nhân tạo) là bước đột phá, hứa hẹn tạo ra nhiều thay đổi trong hiệu quả học tiếng Anh nói riêng và ngoại ngữ nói chung của hàng triệu học sinh, sinh viên Việt Nam.

Thấy gì qua các vụ kiện bản quyền liên quan đến AI trên thế giới?

 Với tác phẩm “Zarya of the Dawn” của Kristina Kashtanova, Mỹ chỉ bảo hộ tác quyền phần nội dung do con người tạo ra. (Ảnh: The Verge)
(PLVN) - Cùng với sự phát triển mạnh mẽ của trí tuệ nhân tạo (AI), các vấn đề bản quyền đang trở nên phức tạp hơn bao giờ hết. Các vụ kiện liên quan đến bản quyền AI đã làm nổi bật những thách thức pháp lý mới, đòi hỏi nhiều quốc gia, trong đó có Việt Nam, phải xem xét điều chỉnh khung pháp lý về sở hữu trí tuệ.

Tổ chức Diễn đàn Quốc gia phát triển Kinh tế số và Xã hội số lần thứ II

Diễn đàn 2024 sẽ diễn ra từ ngày 13-14/11 tại Bình Dương.
(PLVN) - Bộ Thông tin và Truyền thông cho biết sẽ phối hợp với Ban Kinh tế Trung ương và UBND tỉnh Bình Dương tổ chức Diễn đàn Quốc gia phát triển Kinh tế số và Xã hội số lần thứ II với chủ đề: “Sáng tạo ứng dụng công nghệ số vào các ngành, lĩnh vực để phát triển kinh tế số và nâng cao năng suất lao động”.

Phát triển và sử dụng AI: Đặt con người, đạo đức và trách nhiệm lên hàng đầu

TS Trần Thị Tuấn Anh - Phó hiệu trưởng Trường Kinh tế, Luật và Quản lý nhà nước
(PLVN) - Nhằm đóng góp cho quá trình xây dựng chính sách, pháp luật về trí tuệ nhân tạo tại Việt Nam, sáng 06/11, Trường Kinh tế, Luật và Quản lý nhà nước - Đại học Kinh tế Thành phố Hồ Chí Minh phối hợp cùng Viện Nghiên cứu Chính sách và Phát triển Truyền thông (IPS) tổ chức Tọa đàm “Phát triển và sử dụng trí tuệ nhân tạo đáng tin cậy”.

Đẩy mạnh hợp tác giữa Estonia và Việt Nam trong chuyển đổi số

Đoàn doanh nghiệp Estonia làm việc tại Bộ Thông tin truyền thông
(PLVN) - Chiều ngày 5/11 tại Hà Nội, đã diễn ra họp báo thông tin về đoàn đại biểu cấp cao từ Estonia sang thăm và tìm kiếm cơ hội hợp tác trong chuyển đổi số với Việt Nam. Sự kiện được tổ chức bởi Trade Estonia thuộc Enterprise Estonia, phối hợp với Đại sứ quán Estonia.

Thủ tướng Chính phủ biểu dương đội ngũ an ninh mạng Viettel

Thủ tướng Chính phủ biểu dương đội ngũ an ninh mạng Viettel
(PLVN) - Thủ tướng Chính phủ Phạm Minh Chính gửi thư biểu dương các kỹ sư an ninh mạng của Tập đoàn Công nghiệp Viễn thông Quân đội (Viettel) vì thành tích giành ngôi vô địch hai năm liên tiếp tại Pwn2Own, một trong những cuộc thi an ninh mạng lớn nhất và uy tín nhất thế giới.

Hệ quả khôn lường khi trẻ nhỏ bị 'lậm' AI

AI cung cấp các tính năng học tập, giải trí vượt trội cho trẻ em, nhưng đồng thời nó cũng tiềm ẩn nhiều hậu quả khó lường. (Nguồn: Christian Moro)
(PLVN) - Trong xã hội hiện đại, khi công nghệ ngày càng phát triển, trí tuệ nhân tạo (AI) đã trở thành một công cụ hỗ trợ đắc lực trong học tập, giải trí và giao tiếp cho mọi lứa tuổi. Tuy nhiên, đằng sau những lợi ích, tồn tại những cạm bẫy nguy hiểm, đặc biệt đối với trẻ nhỏ, nhất là khi gia đình lơ là trong giám sát, khiến trẻ "lậm" (say mê quá mức - PV) AI. 

Robot giống người chế tạo đáng kinh ngạc

Robot "bản sao" giống người thật đến kinh ngạc của nhà phát minh Nhật Bản (Ảnh: chụp màn hình)
(PLVN) - Hiroshi Ishiguro, một nhà phát minh người Nhật, đã tạo ra 6 bản sao robot của chính mình trong 18 năm qua. Robot mới nhất, Geminoid HI-6, không chỉ có ngoại hình giống Ishiguro đến kinh ngạc mà còn có thể bắt chước biểu cảm khuôn mặt của ông một cách sống động.

Viettel vô địch hai năm liên tiếp tại “World Cup” của ngành

Viettel vô địch hai năm liên tiếp tại “World Cup” của ngành
(PLVN) - Đội ngũ an ninh mạng Viettel (Viettel Cyber Security - VCS) thuộc Tập đoàn Công nghiệp - Viễn thông Quân đội (Viettel) vừa xuất sắc giành ngôi vô địch tại cuộc thi Pwn2Own 2024 được tổ chức tại Ireland. Đây là lần thứ hai liên tiếp đội ngũ an ninh mạng Viettel vô địch Pwn2Own.