Vì thiếu khung pháp lý, việc kiểm soát thông điệp chính trị ‘giả như thật’ bị khó khăn

Ảnh chụp màn hình một video deepfake nhằm vào bầu cử Mỹ, các chuyên gia lần ra nguồn gốc là Nga.

Cử tri trong cuộc bầu cử tổng thống Mỹ năm nay gặp nhiều nguy cơ từ những kẻ xấu sử dụng trí tuệ nhân tạo (AI) để tạo ra thông tin sai lệch có lợi cho các chính trị gia tranh cử hoặc thúc đẩy lợi ích của các chính phủ nước ngoài. Phóng viên của VOA tìm hiểu về việc sử dụng AI trong cuộc bầu cử năm 2024.

Trí tuệ nhân tạo đã xuất hiện trong cuộc bầu cử năm nay, như trong bức ảnh do máy tính tạo ra này thể hiện ông Donald Trump ôm chuyên gia về bệnh truyền nhiễm, Tiến sĩ Anthony Fauci, và cuộc gọi tự động giả mạo này với giọng ông Joe Biden bảo cử tri New Hampshire cứ bỏ qua cuộc bầu cử sơ bộ của họ.

Nội dung của cuộc gọi giả mạo là: "Chúng tôi sẽ cần sự giúp đỡ của bạn trong việc bầu chọn cho mọi đảng viên Đảng Dân chủ có tên trong lá phiếu".

Chuyên gia truyền thông Elaine Kamarck của Viện Brookings nói rằng thời điểm tung ra các video deepfake - giả như thật - về bầu cử chính là điều khiến chúng trở nên nguy hiểm.

Bà nói: “Thậm chí 24 giờ trước cuộc bầu cử, có người đưa ra một thông điệp giả như thật hoặc một thông tin sai lệch. Thực sự rất khó để chống trả và trong một cuộc bầu cử sít sao, điều đó có thể tạo nên sự khác biệt giữa thắng và thua”.

Công ty DeepMedia của ông Rijul Gupta giúp Lầu Năm Góc phát hiện các âm thanh, hình ảnh deepfake - giả như thật. Ông nói rằng chúng khá phổ biến vì chúng không tốn kém và dễ chế ra.

Ông nói: “Tất tần tật, mất có khoảng 15 phút để chế ra một bản deepfake. Có rất nhiều dịch vụ miễn phí trực tuyến. Nếu bạn muốn trả tiền cho những video đẹp hơn, một đoạn âm thanh dài 30 giây có thể chỉ tốn hai xu.”

Luật sư và người ủng hộ tự do ngôn luận Ari Cohn thuộc TechFreedom nhận xét: “Có nhiều người cho rằng đó là Nga, nhưng Trung Quốc cũng đặc biệt có tham gia vào cuộc chạy đua vũ trang AI để cố gắng vượt lên dẫn trước”.

Cohn nói rằng các hoạt động tinh vi nhất ở nước ngoài nhằm mục tiêu tung ra một thông tin chính trị sai lệch gắn với những người Mỹ có nhiều ảnh hưởng để họ lan truyền đến người khác.

Các công ty công nghệ và các nền tảng truyền thông xã hội lớn nhất của Mỹ đã hứa sẽ tự nguyện quản lý AI trong các chiến dịch chính trị, nhưng hiện tại không có luật liên bang nào chi phối hoạt động này.

Luật sư và nhà vận động cho quyền tự do ngôn luận Ari Cohn nói: “Rất, rất khó để mà quản lý các phát ngôn chính trị ở Mỹ. Tu chính án thứ nhất bảo vệ quyền phát ngôn chính trị cốt lõi đó một cách rất mạnh mẽ và vì lý do chính đáng: Chúng ta không muốn chính quyền nhúng tay vào cán cân của các cuộc bầu cử.”

Gupta nói rằng phần lớn khó khăn nằm ở việc phân biệt giữa một bên là nói sai và một bên là đặc điểm của một vấn đề mà người ta có thể không đồng ý với nhau. Vì vậy, làm thế nào để chúng ta biết được cái gì là thông điệp chính trị deepfake?

Theo Rijul Gupta, Giám đốc điều hành DeepMedia, đó là: "Chất lượng âm thanh kém - đấy là dấu hiệu cho thấy nó có thể do AI tạo ra. Nghe có vẻ ngớ ngẩn hoặc tầm thường, nhưng thực ra chỉ cần tìm kiếm những điểm nhỏ nhặt đó và có thể nhanh chóng phát hiện ra chúng, âm thanh và video có thể bị lọc ra rất nhiều. Vì vậy, nếu bạn đang gọi điện thoại video với ai đó và bạn cho rằng họ là kẻ giả mạo, hãy yêu cầu họ xoay ghế. Nếu không làm, đó có thể là kẻ giả mạo.”

Ở chiều ngược lại, Cohn nói rằng AI có thể được sử dụng vì mục đích tốt trong chính trị. Nó có thể giúp ứng viên tiếp cận cộng đồng ngoại kiều bằng ngôn ngữ của họ và có thể giúp các ban tranh cử hiểu rõ hơn về hành vi của cử tri để họ có thể điều chỉnh thông điệp của mình tốt hơn.