Nhiều chuyên gia lo ngại
deepfake, công nghệ dùng AI để ghép khuôn mặt vào video sẽ gây ảnh hưởng lớn tới Internet và bầu cử Tổng thống Mỹ cuối năm nay.
Deepfake, thuật ngữ dùng để chỉ kỹ thuật tổng hợp hình ảnh con ng
ười dựa trên trí tuệ nhân tạo là thứ vô cùng đáng sợ. Thậm chí, nó có thể làm hỏng một cuộc bầu cử, ngay cả khi các ứng cử viên không bị ghép khuôn mặt bằng
deepfake.
Một tron
g nh??ng cách phá hoại bằng
deepfake dễ hình dung là tạo ra những video giả, sai sự thật của ứng cử viên. Tuy nhiên, đây không phải là điều mà các chuyên gia lo ngại nhất.
Mối lo ngại lớn nhất
“Nếu bạn hỏi tôi về mối lo ngại c
hính của cuộc bầu cử tại Mỹ trong năm nay, tôi sẽ trả lời rằng đó không phải là
deepfake. Mối nguy lớn nhất là video có thật, mà chúng ta không thể chứng minh nó là thật hay giả”, Kathryn Harrison, ng
ười sáng lập DeepTrust Alliance, một tổ chức chuyên nghiên cứu và chống lại
deepfake cho biết.
Những ng
ười nghiên cứu về
deepfake có thuật ngữ Liar’s Dividend, nói về sự ảnh hưởng của niềm tin khi xuất hiện
deepfake. Về cơ bản,
deepfake sẽ khiến mọi ng
ười nghi ngờ c
hính đôi mắt của mình và có xu hướng cho rằng mọi video xuất hiện đều là giả.
Không chỉ được dùng để ghép video khiêu dâm,
deepfake còn mang tới những lo ngại về tin giả trước những thời điểm quan trọng như kỳ bầu cử Tổng thống Mỹ cuối năm 2020. Ảnh: Cnet.
Việc cắt ghép hình ảnh không phải là thứ gì đó mới mẻ. Tuy nhiên,
deepfake là một thứ tương đối khác biệt. Các video giả mạo được tạo ra có thể khiến mọi ng
ười dường như đang làm hoặc nói những điều mà họ chưa từng làm.
Bobby Chesney, giáo sư luật tại Đại học Texas, ng
ười đã đưa ra thuật ngữ Liar's Dividend cho biết đảng Dân chủ Mỹ đã tổ chức những buổi thảo luận và giáo dục mọi ng
ười về những mối nguy hại mà
deepfake có thể gây ra.
Dù vậy, mặt trái của việc giáo dục này là nó có khả năng khiến
deepfake phát triển rộng hơn, bởi những ng
ười mới tìm hiểu về chúng hoàn toàn có thể tin video "xịn" là không có thật.
Công nghệ tạo ra để
đánh lừa ng
ười xem
Lý do khiến
deepfake có thể
đánh lừa mọi ng
ười bắt nguồn từ công nghệ tạo ra nó, được các chuyên gia gọi là GAN, viết tắt của các mạng lưới đối nghịch chung. Trong khi trí tuệ nhân tạo đã xuất hiện từ nhiều thập kỷ trước, GAN mới chỉ được phát triển trong khoảng 6 năm nay.
Về cơ bản, GAN là quá trình thử - sai - thử lại liên tục để
đánh lừa mắt ng
ười. Cả bộ tạo tín hiệu và bộ kiểm tra đều là những cỗ máy, cho phép chúng tạo ra cả triệu mẫu thử chỉ trong chớp mắt.
Bằng quá trình thử - sai liên tục,
deepfake được thiết kế ra để
đánh lừa ng
ười xem một cách tinh vi nhất. Đồ hoạ: Hà My.
GAN là các hệ thống được thiết kế để
đánh lừa bạn. GAN có thể tạo hình ảnh, giọng nói, video hay bất kỳ loại phương tiện truyền thông nào. Thuật ngữ
deepfake được sử dụng thường xuyên nhất với các video.
“Với
deepfake đích thực, bạn chắc chắn sẽ không thể nhận ra”, ông Chesney chia sẻ.
Sự ra đời của
deepfake đã tạo ra các thuật ngữ mới: Cheapfakes và Shallow fakes. Đây là những loại video giả mạo rất dễ nhận ra, nhưng vẫn vô cùng hiệu quả, khiến nó trở thành mối đe dọa thông tin sai lệch lớn.
Khi mà ngày càng nhiều ng
ười dễ dàng tin tưởng các thông tin được chia sẻ trên Facebook hay YouTube, những video đơn giản này lại dễ gây hoạ hơn. Video giả mạo, gây sốc rất dễ phát tán, mang lại nhiều tiền hơn hẳn so với thông tin c
hính thống trên các nền tảng này.
Những nhà nghiên cứu đã có thể tạo ra video
deepfake giống như thật, sử dụng hình ảnh các c
hính trị gia. Ảnh: Shruti Agarwal.
Theo Cnet, hậu quả để lại sẽ là một hệ thống mà video giả mạo được tin tưởng, còn thông tin trung thực và nhàm chán lại bị nghi ngờ.
Để tạo ra những video
deepfake thuyết phục tương đối tốn kém. Những video như vậy chỉ được tạo ra và chia sẻ chủ yếu trong giới học thuật. Tuy nhiên, nếu được đưa ra đúng thời điểm, như trước kỳ bầu cử vài ngày, thì chúng có thể để lại ảnh hưởng to lớn.
"Nếu video giả mạo xuất hiện 48 giờ trước ngày bầu cử, chúng ta sẽ không có thời gian sửa chữa hậu quả", Clint Watts, nhà nghiên cứu c
hính sách ngoại giao từng điều trần về
deepfake trước Quốc hội Mỹ chia sẻ.
Theo Zing
Cuộc sống như dưới địa ngục của một nạn nhân tin giả Covid-19
Bà mẹ hai con Maatje Benassi trở thành mục tiêu của những kẻ theo thuyết âm mưu, bị cáo buộc là ng
ười mang virus đến Trung Quốc.
Nguồn bài viết : Máy đánh bạc