3 trò lừa đảo trí tuệ nhân tạo (AI) người dùng hết sức lưu ý

Huỳnh Dũng Thứ ba, ngày 18/07/2023 14:04 PM (GMT+7)
Lừa đảo bằng trí tuệ nhân tạo (AI) được thiết lập để cách mạng hóa cách thức hoạt động của những kẻ lừa đảo, với các phương pháp ngày càng tinh vi, phức tạp, và đang gia tăng quy mô, mức độ, đặt ra một giới hạn mới về cách chúng ta phải giữ an toàn cho túi tiền của mình.
Bình luận 0

Trí tuệ nhân tạo (AI) là công nghệ mang lại cho máy móc khả năng bắt chước suy nghĩ hoặc hành động như của con người, bao gồm cả việc học tập và giải quyết vấn đề. Và Logic Theorist, chương trình AI đầu tiên được giới thiệu vào năm 1957 và nó đã khơi mào cho lĩnh vực nghiên cứu AI.

Trong khi nhiều người cứ nghĩ về AI như một thứ gì đó chỉ có trong phim khoa học viễn tưởng, nhưng sự thật thì nó là một thứ rất thực tế đóng vai trò quan trọng trong thời đại “dữ liệu lớn” này. Lợi ích của AI đã được cảm nhận trong các ngành như công nghệ, ngân hàng, tiếp thị và giải trí. AI giúp lái xe ô tô, đặt mục tiêu đếm số bước trên đồng hồ thông minh, đề xuất bài hát và chương trình trên các dịch vụ phát trực tuyến, cũng như tạo lộ trình di chuyển hiệu quả nhất bằng ứng dụng bản đồ.

Thật không may, những kẻ lừa đảo cũng đã tìm ra cách để bóp méo lợi ích của AI cho mục đích xấu. Hay nói cách khác thì những kẻ lừa đảo rất giỏi trong việc thao túng những tiến bộ công nghệ mới nhất để phạm tội. Ngày nay, điều đó đang xảy ra trong thế giới trí tuệ nhân tạo – thường được gọi là AI.

Tiến sĩ Klaus Schenk, Phó Chủ tịch cấp cao thuộc bộ phận nghiên cứu mối đe dọa và an ninh của công ty bảo mật Verimatrix cho biết: “AI đã mở ra những con đường đáng báo động cho những kẻ lừa đảo lợi dụng những cá nhân nhẹ dạ cả tin, và đánh lừa họ để chiếm đoạt những đồng tiền cá nhân”.

Các chuyên gia cảnh báo về những trò gian lận tinh vi hơn khi AI ngày càng trở nên phổ biến. Ảnh: @AFP.

Các chuyên gia cảnh báo về những trò gian lận tinh vi hơn khi AI ngày càng trở nên phổ biến. Ảnh: @AFP.

“Bằng cách tận dụng các công nghệ tự động hóa và deepfake tinh vi, những kẻ lừa đảo có thể tạo ra những giọng nói và video lừa bịp cực kỳ thuyết phục. Điều này làm xói mòn lòng tin và khiến mọi người dễ bị thao túng tâm lý”, ông nói thêm.

Và với việc AI ngày càng trở nên phổ biến, việc biết cách bảo vệ chống lại các trò gian lận do AI điều khiển sẽ rất quan trọng trong những năm tới. Dưới đây là 3 trò gian lận AI cần chú ý để giữ an toàn cho bản thân và túi tiền của bạn.

1. Deepfake

Deepfake là một dạng trí tuệ nhân tạo được những kẻ lừa đảo sử dụng để tạo hình ảnh và video giả mạo nhưng trông có vẻ hợp pháp. Thông thường, điều này sẽ liên quan đến những kẻ lừa đảo sử dụng bộ dữ liệu lớn gồm hình ảnh, video và âm thanh để sao chép giọng nói và diện mạo của một gương mặt nạn nhân nào đó.

Sau đó, phần mềm được sử dụng để khiến nhân vật Deepfake ảo đó có thể nói, cử động y như thật, nhằm mục đích tống tiền nạn nhân bị giả mạo, hoặc làm các video nhân vật kiểu nhạy cảm để tống tiền nạn nhân, bằng không các video, hình ảnh ảnh đó sẽ được gửi đến bạn bè, người thân, gia đình…

Deepfake là một dạng trí tuệ nhân tạo được những kẻ lừa đảo sử dụng để tạo hình ảnh và video giả mạo nhưng trông có vẻ hợp pháp. Ảnh: @AFP.

Deepfake là một dạng trí tuệ nhân tạo được những kẻ lừa đảo sử dụng để tạo hình ảnh và video giả mạo nhưng trông có vẻ hợp pháp. Ảnh: @AFP.

Hiện tại, công nghệ này cũng đã được sử dụng để cố gắng gian lận tài chính, và Martin Lewis là nạn nhân của một nỗ lực mạo danh anh ấy gần đây.

“Dự án mới của siêu tỷ phú Elon Musk mở ra cơ hội lớn cho bản thân tôi”, đây là câu nói mô phỏng một Lewis giả nói trong đoạn clip lừa đảo được chia sẻ rộng rãi trên mạng xã hội.

Đoạn video cố gắng thuyết phục người xem rằng Lewis có một cơ hội đầu tư mới được cho là đến từ Elon Musk, nó có thể nhằm mục đích kêu gọi lấy tiền của nhà đầu tư vào dự án này. Nhưng Martin Lewis khẳng định, rõ ràng là không có kế hoạch nào như vậy tồn tại và chính Lewis đã tố giác những rủi ro mà công nghệ này gây ra cho chính anh.

“Những người này đang cố xuyên tạc và hủy hoại danh tiếng của tôi để ăn cắp tiền của những người dễ bị tổn thương, và nói thẳng ra là điều đó thật đáng hổ thẹn, và mọi người sẽ mất tiền, và sức khỏe tâm thần của mọi người sẽ bị ảnh hưởng”, Martin Lewis nói thêm.

2. ChatGPT lừa đảo

Hình thức lừa đảo qua email không có gì mới, khi những kẻ lừa đảo từ lâu đã gửi email giả vờ là từ một nguồn chính hãng, chẳng hạn như ngân hàng, nhà cung cấp công nghệ hoặc cơ quan chính phủ. 

Những kẻ lừa đảo thường sẽ cố gắng lèo lái chiêu dụ khiến bạn truy cập một trang web. Và điều này có thể dẫn đến thông tin ngân hàng hoặc thông tin cá nhân khác của bạn bị đánh cắp ngay lập tức.

Cảnh giác với những trò lừa đảo ChatGPT mới này. Ảnh: @AFP.

Cảnh giác với những trò lừa đảo ChatGPT mới này. Ảnh: @AFP.

Nhưng chính AI đã cách mạng hóa cách những kẻ lừa đảo có thể tạo ra các email được sử dụng để thu hút bạn. ChatGPT và các công cụ AI tổng quát khác có thể dễ dàng tạo các nội dung văn bản giả mạo giọng điệu và giả mạo sự mạch lạc như của các tin nhắn hợp pháp một cách miễn phí. Điều này khiến lỗi chính tả, ngữ pháp vụng về vốn là các dấu hiệu nhận biết email giả mạo giờ đây sẽ khó phát hiện hơn.

Ngoài ra, ChatGPT có thể được sử dụng để tạo tập lệnh thoại điện thoại mà những kẻ lừa đảo có thể sử dụng để mạo danh đại diện dịch vụ khách hàng của tổng đài, nhà mạng để lừa các cá nhân cung cấp thông tin nhạy cảm. 

3. Nhân bản giọng nói

Đây là một dạng deepfake AI khác, nhưng thay vì sản xuất video hay hình ảnh, thì chiêu thức nhân bản giọng nói tái tạo giọng điệu và ngôn ngữ của một cá nhân. Đây là một hình thức lý tưởng để thuyết phục ai đó rằng, họ đang nói chuyện điện thoại thực sự với người quen, người thân yêu của mình.

Trong một ví dụ đáng chú ý, một người mẹ ở Mỹ nhận được một cuộc gọi có vẻ như là của con gái bà trong tình trạng túng quẫn, hoảng loạn để xin tiền. Khi gọi các cơ quan chức năng đến điều tra, họ nhanh chóng nhận ra rằng cuộc gọi đó là giả mạo và giọng nói của cô con gái đã được nhân bản bằng AI.

Chia sẻ thêm về vấn đề này, theo công ty bảo mật công nghệ McAfee, trong số 7.000 người được công ty này khảo sát, cứ 4 người thì có 1 người cho biết họ đã từng bị lừa đảo nhân bản giọng nói AI. Trong số những người báo cáo bị mất tiền, 36% cho biết họ bị mất từ 500 đến 3.000 đô la, trong khi 7% bị mất số tiền từ 5.000 đến 15.000 đô la.

Những kẻ lừa đảo qua điện thoại đang sử dụng trí tuệ nhân tạo để bắt chước giọng nói. Ảnh: @AFP.

Những kẻ lừa đảo qua điện thoại đang sử dụng trí tuệ nhân tạo để bắt chước giọng nói. Ảnh: @AFP.

Trước mắt, để thực hiện hành vi thì một bản sao chắc chắn sẽ cần một bản gốc làm nền tảng nhân bản. Nhưng ttội phạm mạng không gặp khó khăn gì trong việc tìm nguồn các tệp giọng nói gốc để tạo bản sao của chúng. Nghiên cứu của McAfee cho thấy, 53% người trưởng thành cho biết họ chia sẻ dữ liệu giọng nói của mình trực tuyến thông mạng xã hội, podcast, diễn đàn thảo luận…Tất cả hoạt động này tạo điều kiện dễ dàng để các bản ghi âm giọng nói gốc có thể bị hack, đánh cắp hoặc chia sẻ (dù vô tình hay cố ý ác ý). 

Với một mẫu giọng nói gốc của một người và một kịch bản do tội phạm mạng soạn thảo, thông qua phần mềm AI thì những tin nhắn nhân bản giọng nói này nghe có vẻ thuyết phục.Tội phạm mạng tạo ra các loại tin nhắn thoại ngoài sự mong đợi của bạn, như trong tình trạng khẩn cấp, nguy hiểm và đau khổ. 

Họ sẽ sử dụng công cụ nhân bản để mạo danh bạn bè hoặc thành viên gia đình của nạn nhân bằng một tin nhắn thoại nói rằng người nhà/ người quen của họ đã bị tai nạn xe hơi hoặc có thể họ đã bị cướp hoặc bị thương. Nhìn chung, phương pháp này đã được chứng minh là khá hiệu quả cho đến nay. 

Huỳnh Dũng- Theo Moneyweek/Mcafee/Fdacs

Mời các bạn đồng hành cùng báo Dân Việt trên mạng xã hội Facebook để nhanh chóng cập nhật những tin tức mới và chính xác nhất.
Tin cùng chuyên mục
Xem theo ngày Xem