Cảnh giác trước hiện tượng dùng AI mô phỏng khuôn mặt giống người thật để lừa đảo, bôi nhọ In trang
04/11/2025 09:48 SA

Trong thời đại công nghệ số phát triển mạnh mẽ, việc sử dụng trí tuệ nhân tạo (AI) không chỉ dừng lại ở những ứng dụng hữu ích mà đang nổi lên như một mối đe dọa tinh vi: việc khai thác AI để mô phỏng khuôn mặt, giọng nói hoặc hình ảnh của người nổi tiếng nhằm mục đích lừa đảo, bôi nhọ và xâm phạm danh dự, một hiện tượng không chỉ gây thiệt hại kinh tế mà còn đe dọa niềm tin xã hội.

Hiện nay đã có nhiều vụ việc điển hình của việc sử dụng công nghệ “deepfake”, tức là sử dụng các thuật toán AI để tạo ra hình ảnh, video, âm thanh giả mạo rất giống người thật, trong đó nạn nhân là người nổi tiếng hoặc công chúng rộng rãi. Một số các báo cáo của các cơ quan chức năng cho thấy tội phạm mạng tại Việt Nam đang dùng phần mềm giả mạo khuôn mặt, ghép mặt nạn nhân vào video nhạy cảm rồi dùng để tống tiền.
Không chỉ lừa đảo chuyển tiền, việc giả mạo người nổi tiếng còn được dùng để quảng cáo giả mạo, đầu tư ma, tung tin thất thiệt, bôi nhọ danh tiếng.

Điểm đáng lưu ý là công nghệ này ngày càng dễ tiếp cận: dữ liệu khuôn mặt, giọng nói, hình ảnh cá nhân ngày càng nhiều trên mạng xã hội, khiến việc thu thập và mô phỏng trở nên dễ dàng hơn.

Thêm vào đó, khả năng phân biệt giả thật của người dùng còn hạn chế. Một nghiên cứu chỉ ra rằng con người khó khăn trong việc phát hiện nội dung giả tạo do AI, đặc biệt là khi khuôn mặt người xuất hiện.

Tác hại đối với người nổi tiếng, với cá nhân và xã hội trong vấn đề này là gì?

Với người nổi tiếng, việc bị mô phỏng khuôn mặt, giọng nói mà không có sự đồng ý là một sự xâm phạm nghiêm trọng: danh dự bị ảnh hưởng, thương hiệu cá nhân bị tổn hại, cơ hội hợp tác và uy tín bị sụt giảm. Theo nhiều phân tích, việc này cũng đặt ra vấn đề bản quyền hình ảnh, quyền sử dụng bản thân và quyền được bảo vệ khỏi việc bị giả mạo.

Với cá nhân, nạn nhân của lừa đảo, hậu quả có thể rất nặng nề: mất tiền bạc, mất quyền kiểm soát hình ảnh cá nhân, thậm chí bị tống tiền hoặc bị bịa đặt hình ảnh, video xấu rồi dùng để đe dọa.

Với xã hội, hiện tượng này làm xói mòn niềm tin vào thông tin, vào hình ảnh người nổi tiếng và truyền thông. Người dân dần nghi ngờ tính xác thực của video, hình ảnh, làm suy yếu khả năng thẩm định thông tin.

Ngoài ra, lĩnh vực kinh doanh, tài chính, chính trị cũng bị ảnh hưởng nghiêm trọng khi các cuộc lừa đảo sử dụng mô phỏng khuôn mặt, giọng nói lãnh đạo doanh nghiệp hoặc cán bộ cấp cao, cán bộ, công chức để chiếm đoạt tiền, bôi nhọ…

Vì sao hiện tượng này ngày càng phổ biến?

Thứ nhất, công nghệ AI ngày càng tiến bộ và ngày càng “dễ dùng”: Các công cụ mô phỏng khuôn mặt, giọng nói, video giả giờ đây không chỉ nằm trong tay các chuyên gia mà đã được thương mại hóa, hoặc ít nhất là có sẵn trên mạng.

Thứ hai, khai thác lượng dữ liệu cá nhân khổng lồ: Hình ảnh, video, giọng nói của người nổi tiếng nói riêng và người bình thường nói chung được chia sẻ rộng rãi trên mạng xã hội, làm dữ liệu huấn luyện cho mô hình giả mạo trở nên phong phú.

Thứ ba, thiếu nhận thức và thiếu cơ chế bảo vệ: Nhiều người dùng chưa nhận thức đầy đủ mức độ nguy hiểm của deepfake, chưa biết cách kiểm chứng thông tin, hoặc khi bị lừa thì ngại tố cáo vì sợ xấu hổ, thương hiệu cá nhân bị tổn hại.

Thứ tư, khung pháp lý và công nghệ phòng chống chưa theo kịp vì công nghệ mới phát triển rất nhanh, trong khi luật pháp, chế tài và biện pháp kỹ thuật phát hiện vẫn đang lùi lại phía sau.

Để ứng phó với hiện tượng sử dụng AI mô phỏng khuôn mặt người nổi tiếng nhằm lừa đảo, bôi nhọ, cần có sự can thiệp đồng bộ ở nhiều cấp độ và cần thực hiện một số giải pháp thiết thực:

Một là, tăng cường kiến thức, nâng cao nhận thức cộng đồng. Người dùng internet cần được trang bị thông tin về deepfake, cách phân biệt video, hình ảnh giả, như: chữ viết, ánh sáng, giọng nói, nhịp độ nói…, dù hiện nay việc phát hiện bằng mắt thường ngày càng khó khăn.

Hai là, về phía người nổi tiếng và người có ảnh hưởng cần chủ động bảo vệ hình ảnh cá nhân: hạn chế chia sẻ dữ liệu riêng tư, sử dụng biện pháp bản quyền nếu có thể, sẵn sàng phản ứng khi hình ảnh, video bị giả mạo, công khai để cảnh báo fan và truyền thông.

Ba là, về phía các nền tảng số và doanh nghiệp: Các mạng xã hội, nền tảng đăng tải video, hình ảnh phải chịu trách nhiệm phát hiện và gỡ bỏ nội dung giả mạo. Đồng thời, phải có cơ chế xác thực người dùng và báo cáo lạm dụng.

Bốn là, về mặt pháp luật và chính sách: Cần hoàn thiện khung pháp lý để xử lý việc sử dụng hình ảnh, giọng nói giả mạo khi chưa được phép, nhất là khi có mục đích lừa đảo, tống tiền hoặc bôi nhọ.

Về vấn đề này, trong khuôn khổ Kỳ họp thứ 10, Quốc hội khóa XV, khi bàn về dự thảo Luật An ninh mạng sửa đổi, nhiều đại biểu đề xuất Luật An ninh mạng cần bổ sung đầy đủ các hành vi bị nghiêm cấm, đặc biệt là sử dụng trí tuệ nhân tạo (AI) để tạo dựng, chỉnh sửa, lan truyền thông tin sai sự thật, giả mạo danh tính nhằm vu cáo, lừa đảo.

Năm là, ứng dụng công nghệ phát hiện, phòng ngừa kỹ thuật: Các tổ chức tài chính, doanh nghiệp cần áp dụng công nghệ phát hiện deepfake, như các mô hình mạng GAN để phát hiện giao dịch hình ảnh giả mạo.

Sáu là, tổ chức xử lý báo cáo và hỗ trợ khi bị hại. Nạn nhân bị xâm phạm hoặc mất tiền cần được hỗ trợ pháp lý, tâm lý và kỹ thuật. Đồng thời cần khuyến khích họ báo cáo, vì im lặng chỉ giúp tội phạm hoạt động mạnh hơn.

Có thể nói, hiện tượng sử dụng AI để mô phỏng khuôn mặt người nổi tiếng hoặc thậm chí người bình thường, với mục đích lừa đảo, bôi nhọ, tống tiền là một biểu hiện rõ nét của “mặt tối” trong tiến trình số hóa. Nó không chỉ là chuyện cá nhân bị mất tiền hay bị ảnh hưởng danh tiếng, mà nó còn đặt dấu hỏi lớn về niềm tin xã hội, về an toàn thông tin và về khả năng kiểm soát công nghệ khi nó đã vượt khỏi tầm tay.

Nếu chúng ta chỉ đứng nhìn mà không hành động, không nâng cao nhận thức, không hoàn thiện chính sách, không áp dụng công nghệ phòng thủ, thì rất có thể Internet sẽ trở thành nơi mà “một video giả mạo” có thể hủy hoại một danh tiếng, một thương hiệu hoặc một cá nhân vô tội. Trái lại, nếu mỗi chúng ta, người sử dụng, người nổi tiếng, doanh nghiệp, nhà lập pháp, đều chủ động và có trách nhiệm, chúng ta có thể biến thách thức này thành cơ hội: cơ hội để xây dựng môi trường số an toàn hơn, văn minh hơn và đáng tin hơn.     

                                                                                            

* Hồng Vĩnh

Lượt xem: 371
Văn bản mới
  • Số 210-CV/BTGDVTU 11/12/2025 Phối hợp điều tra dư luận xã hội về hoạt động của bộ máy chính ...
  • Số 136-CV/BTGDVTU 21/11/2025 Phối hợp điều tra dư luận xã hội chung quanh công tác chuẩn bị tổ ...
  • Số 121-CV/BTGDVTU 19/11/2025 Về việc tham gia Cuộc thi trực tuyến tìm hiểu các kỳ Đại hội Đảng ...
  • Số 03-HD/BTGDVTU 11/11/2025 Hướng dẫn tổ chức nghiên cứu, học tập, quán triệt, tuyên truyền Nghị quyết Đại ...
  • Số 81-CV/BTGDVTU 07/11/2025 Về việc tham gia Cuộc thi trực tuyến tìm hiểu về các nghị quyết của ...
Liên kết website

Thống kê truy cập
  • 006408165
  •  Đang online: 63
  •  Trong tuần: 27.726
  •  Trong tháng: 154.028
  •  Trong năm: 1.401.206