Deepfake
-
Ông Hồ Huy - Chủ tịch Tập đoàn Mai Linh đang bị các đối tượng sử dụng công nghệ Deepfake để cắt ghép, phát tán các hình ảnh nhạy cảm trên mạng xã hội.
-
Các đối tượng lừa đảo công nghệ cao ngày càng tinh vi, Deepfake đã được nâng tầm giống người thật đến 80% khiến không ít người đã dễ dàng bị lừa đảo.
-
Sự phát triển của trí tuệ nhân tạo (AI) tạo điều kiện cho những kẻ lừa đảo dễ dàng đánh cắp thông tin và tiền của nạn nhân, với công nghệ deepfake hoặc sao chép giọng nói.
-
Công nghệ trí tuệ nhân tạo ngày càng phát triển, vô tình giúp kẻ gian dễ dàng thực hiện hành vi lừa đảo bằng cách sử dụng công nghệ deepfake, giả mạo người thân để lừa tiền.
-
Không dừng lại ở việc chiếm đoạt tài khoản Facebook, Zalo,… và gửi tin nhắn mạo danh để lừa đảo, thủ đoạn của hacker đã tinh vi hơn sau khi có sự xuất hiện của deepfake - một công nghệ AI giúp người dùng dễ dàng tạo ra những hình ảnh, âm thanh, video giống như phiên bản gốc.
-
Gốc rễ của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính. Để lấy được tiền của nạn nhân, đối tượng lừa đảo cần đến các tài khoản ngân hàng để chuyển tiền vào. Vấn nạn lừa đảo trực tuyến, Deepfake diễn ra trong thời gian qua là do vẫn tồn tại những tài khoản ngân hàng không chính chủ...
-
Gần đây, xuất hiện tình trạng lừa đảo mới khi các đối tượng xấu dùng hình ảnh, video cắt ghép mặt, giả giọng người thân để lừa đảo.
-
Điều thú vị là Trung Quốc đang nhắm vào một trong những mối đe dọa nghiêm trọng của deepfake đối với xã hội của chúng ta trong thời hiện đại: sự xói mòn niềm tin vào những gì chúng ta thấy và nghe, và ngày càng khó phân biệt sự thật và dối trá.
-
Chỉ mới xuất hiện vào năm 2017 nhưng cho đến nay, Deepfake được coi là thứ vũ khí nguy hiểm bậc nhất khi được các đối tượng có mục đích xấu sử dụng để tạo ra các video giả có nội dung khiêu dâm hoặc để tạo ra tin tức giả và những trò lừa đảo độc hại.