CÔNG NGHỆ MỚI ĐANG GÂY LO NGẠI: Khi công nghệ DeepFake tiếp tục phát triển, khả năng bị lạm dụng gia tăng.
Mặc dù các công cụ hiện tại vẫn yêu cầu người dùng bắt chước cử chỉ, giọng nói và các chi tiết khác, nhưng những tiến bộ trong việc nhân bản giọng nói và tổng hợp video có thể khiến việc tạo ra hình ảnh kỹ thuật số giống hệt nhau trở nên thuyết phục hơn trong thời gian thực.
Some experiments – it works almost flawlessly and it’s totally real-time. Took me 5 minutes to install. pic.twitter.com/Ow0QRF7WOj
— joao (@jay_wooow) August 9, 2024
Trong vài ngày qua, một phần mềm mới có tên Deep-Live-Cam đã gây chú ý trên mạng xã hội với khả năng tạo ra DeepFake theo thời gian thực một cách cực kỳ dễ dàng. Phần mềm này chỉ cần một bức ảnh của người dùng và áp dụng khuôn mặt của họ lên video webcam trực tiếp, theo dõi tư thế, ánh sáng và biểu cảm của người đó. Dù kết quả không hoàn hảo, sự phát triển nhanh chóng của công nghệ này chứng tỏ rằng việc lừa gạt người khác bằng AI đã trở nên dễ dàng hơn nhiều.
Dự án Deep-Live-Cam (Realtime DeepFake) đã được phát triển từ cuối năm ngoái, nhưng gần đây đã thu hút sự chú ý mạnh mẽ sau khi các video mẫu bắt đầu lan truyền trực tuyến. Những đoạn clip này cho thấy các cá nhân bắt chước những nhân vật nổi tiếng như Elon Musk và George Clooney trong thời gian thực. Sự bùng nổ đột ngột trong độ phổ biến đã đưa dự án mã nguồn mở này đứng đầu danh sách các kho lưu trữ đang thịnh hành trên GitHub. Phần mềm miễn phí này có sẵn trên GitHub, cho phép bất kỳ ai có kiến thức cơ bản về lập trình tiếp cận.
Khả năng lạm dụng Deep-Live-Cam đã khiến các chuyên gia công nghệ lo ngại. Họa sĩ Corey Brickley nhận ra rằng hầu hết các công nghệ đột phá gần đây đều dễ bị lợi dụng. “Thật lạ khi tất cả các đổi mới lớn từ công nghệ gần đây đều nằm dưới danh mục Lừa đảo,” Brickley đã tweet, bổ sung thêm, “Hãy nhớ thiết lập mã từ với cha mẹ bạn, mọi người nhé.”
Deep-Live-Cam is trending #1 on github. It enables anyone to convert a single image into a LIVE stream deepfake, instant and immediately. pic.twitter.com/yWuHgRaGDp
— Del Walker 🇵🇸 (@TheCartelDel) August 12, 2024
Mặc dù bình luận của Brickley mang tính châm biếm, nhưng điều này làm nổi bật khả năng mà những kẻ xấu có thể sử dụng các công cụ như vậy để lừa gạt. Xem xét sự phổ biến và khả năng tiếp cận của công nghệ deepfake, việc thiết lập một từ khóa an toàn để xác nhận danh tính với gia đình và bạn bè không phải là một ý tưởng quá điên rồ.
Công nghệ hoán đổi khuôn mặt không phải là điều mới mẻ. Thuật ngữ “DeepFake” đã xuất hiện từ năm 2017, bắt nguồn từ một người dùng Reddit đã sử dụng nó như một biệt danh. Người này thường đăng tải hình ảnh và video trong đó anh ta hoán đổi khuôn mặt của một diễn viên phim người lớn với khuôn mặt của một người nổi tiếng. Vào thời điểm đó, công nghệ này còn chậm chạp, tốn kém và chưa đạt được hiệu suất thời gian thực. Tuy nhiên, những kỹ thuật sơ khai đó đã phát triển một cách đáng kể. Các dự án như Deep-Live-Cam và những dự án khác thông minh hơn và nhanh hơn, đã giảm thiểu rào cản gia nhập, cho phép bất kỳ ai sở hữu máy tính tiêu chuẩn có thể tạo ra deepfake bằng phần mềm miễn phí.
Tiềm năng lạm dụng đã được ghi nhận rõ ràng. Vào tháng Hai, những kẻ lừa đảo ở Trung Quốc đã giả mạo các giám đốc điều hành công ty, bao gồm cả CFO, trong một cuộc gọi video và lừa một nhân viên chuyển hơn 25 triệu đô la Mỹ. Nhân viên đó là người duy nhất thật sự có mặt trong cuộc gọi hội nghị. Trong một trường hợp tương tự, một người ở Mỹ gần đây đã nhân bản giọng nói của Joe Biden để khuyên mọi người không tham gia bỏ phiếu trong cuộc bầu cử sơ bộ New Hampshire. Với sự gia tăng của phần mềm deepfake theo thời gian thực như Realtime DeepFake, các trường hợp lừa đảo video từ xa có thể trở nên phổ biến hơn, ảnh hưởng không chỉ đến các nhân vật công chúng mà còn đến cả những cá nhân bình thường.
Theo Techspot