Deepfake - từ công nghệ giải trí thành tính năng lừa đảo

Thứ sáu - 21/04/2023 04:06
Trên thế giới đã có nhiều trường hợp lừa đảo liên quan đến Deepfake được ghi nhận. Mới đây nhất, một gia đình tại Texas (Mỹ) đã mất hàng nghìn USD chuyển cho kẻ gian sau khi chúng sử dụng AI và Deepfake để giả giọng con trai họ thông báo vừa gặp tai nạn xe hơi, theo Daily Mail.
Từ một công nghệ phục vụ giải trí, Deepfake dần trở thành tính năng cho những kẻ lừa đảo bằng video, hoặc nguồn cơn của các thông tin thất thiệt.

Deepfake là công nghệ được biết đến nhiều nhất với tác dụng tái tạo lại khuôn mặt của người trong video nhờ sử dụng trí tuệ nhân tạo (AI). Ban đầu, công nghệ này được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế. Tuy nhiên, giới tội phạm nhanh chóng lợi dụng ưu điểm đó để tạo ra công cụ giả mạo người khác, giúp chúng thực hiện các vụ lừa đảo, hoặc lan truyền tin thất thiệt trên mạng.

Trên thế giới đã có nhiều trường hợp lừa đảo liên quan đến Deepfake được ghi nhận. Mới đây nhất, một gia đình tại Texas (Mỹ) đã mất hàng nghìn USD chuyển cho kẻ gian sau khi chúng sử dụng AI và Deepfake để giả giọng con trai họ thông báo vừa gặp tai nạn xe hơi, theo Daily Mail.
 
Hình ảnh bắt ông Donald Trump do AI tạo ra đang được phát tán trên mạng. Ảnh chụp màn hình

Hoặc trường hợp những bức hình cựu Tổng thống Mỹ Donald Trump bị cảnh sát đưa đi được phát tán trên mạng gần đây thực chất do AI tạo ra. Một số người thậm chí lợi dụng công nghệ Deepfake để bắt đầu tạo ra những video quay cảnh ông Trump bị bắt.

"Thật không may khi các AI có thể tạo ra những bức hình vô cùng chân thực lại đang trở thành công cụ đắc lực cho việc lan truyền tin thất thiệt trong cộng đồng. Chúng ta đang chứng kiến một hình thức 'thông tin sai lệch có chủ đích' khi các tin đồn được hiện thực hóa thông qua việc tạo nên những dạng ấn phẩm truyền thông làm minh chứng cho sự kiện chưa từng xảy ra", nhà nghiên cứu Joan Donovan tại Đại học Harvard (Mỹ) nhận định.

Trao đổi với Thanh Niên, chuyên gia công nghệ Vũ Ngọc Sơn (Công ty công nghệ an ninh mạng Việt Nam - NCS), đánh giá Deepfake sinh ra không phải với mục tiêu xấu. "Đó đơn thuần là ứng dụng mang tính giải trí. Trước kia có rất nhiều phần mềm chụp ảnh tĩnh cho phép người dùng ghi lại khoảnh khắc dưới hình dáng của nhân vật hoạt hình hay siêu sao. Deepfake là một cải tiến mới, thay vì ảnh tĩnh thì nhân vật trở nên sống động, hấp dẫn hơn, có những pha hành động, diễn xuất như thật hay giọng nói khớp với cử động khuôn mặt", ông giải thích.

Theo ông, công nghệ này đang được sử dụng vào mục đích xấu nhiều hơn nên gần đây khi nhắc đến "Deepfake", người ta nghĩ ngay đến công cụ xấu. Trên thị trường phổ thông, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo nên clip do AI tạo nên thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh và hình ảnh không cao. Trong những clip đó, khuôn mặt nhân vật thường khá "cứng" và ít cảm xúc hơn tự nhiên, hình thể cũng hạn chế di chuyển so với clip thông thường.
 
deepfake 2
Deepfake sinh ra với mục đích ban đầu để giải trí. Ảnh chụp màn hình

"Vì vậy, nếu để ý kỹ có thể phát hiện ra được. Bạn không nên tin vào các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ", chuyên gia Vũ Ngọc Sơn khuyến cáo.

Lãnh đạo NCS cũng cho biết trên thế giới có những giải pháp để phát hiện clip được tạo ra nhờ Deepfake hay không, nhưng các công cụ này chưa phổ biến và cách dùng phức tạp hơn so với những ứng dụng tạo ra video giả mạo. Ông nói: "Công nghệ luôn là một quá trình phát triển không ngừng và các công nghệ giúp Deepfake ngày càng giống thật hơn sẽ đến trong thời gian gần, đòi hỏi giải pháp chống Deepfake cũng phải cải tiến liên tục để có thể phát hiện ra".

Hiện tại, các mạng xã hội phổ biến toàn cầu như Facebook, Twitter, TikTok đều áp dụng công cụ riêng để phát hiện video Deepfake, đồng thời cấm đăng tải nội dung do công nghệ này tạo ra lên nền tảng của họ. Tuy vậy, việc phát hiện chỉ ở mức tương đối và kẻ gian vẫn không ngừng tìm cách để lách qua bộ lọc của mạng xã hội.

Theo các chuyên gia bảo mật, để có thể kiểm tra phía bên người gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ, thì còn có một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là "tạo mặt nạ" hoặc "xóa nền".
Anh Quân
 
 
Deepfake giả như thật, làm sao để không bị lừa?

Nguồn video: VTV24
 

Tác giả: Anh Quân

Nguồn tin: Báo Thanh Niên

 Tags: deepfake

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Những tin mới hơn

Những tin cũ hơn

Facebook Gia đình Cựu Chủng sinh Huế
Kênh Youtube Gia đình Cựu Chủng sinh Huế
Chuyên mục ủng hộ
CHUYÊN MỤC CHIA SẺ
Thương về Sài Gòn
Ủng hộ Nhà Hưu dưỡng Linh mục Giáo phận Huế
Ủng hộ Miền Trung bị bão lụt 2020
Bão lụt Miền Trung 10/2020
Tin vui giữa mùa đại dịch
Đại dịch Covid-19
Nhà thờ Hương Phú, Nam Đông
Nghĩa tình mùa Xuân Kỷ Hợi
Hỗ trợ mái ấm tình thương Lâm Bích
Ủng hộ Hội ngộ lần 3 Denver, Colorado
Lễ Tạ ơn ĐĐK Đức HY Thuận 2017
Ủng hộ Án phong Chân phước đợt 4 năm 2016
Danh sách ủng hộ Caritas TGP Huế
Ủng hộ Causa Card. Văn Thuận
  • Đang truy cập130
  • Máy chủ tìm kiếm8
  • Khách viếng thăm122
  • Hôm nay44,676
  • Tháng hiện tại181,677
  • Tổng lượt truy cập69,657,009
Hãy đăng nhập thành viên để trải nghiệm đầy đủ các tiện ích trên site
Mã bảo mật
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây