Đường dẫn truy cập

Trí tuệ nhân tạo có thể có phản ứng ngược


Tennis và trí tuệ nhân tạo
Tennis và trí tuệ nhân tạo

Với những tiến triển trong lĩnh vực trí tuệ nhân tạo, nguy cơ do các tin tặc gây ra khi sử dụng công nghệ này để mở các cuộc tấn công tàn độc ngày càng tăng, các nhà nghiên cứu hàng đầu cảnh báo trong một phúc trình được công bố ngày 21/2.

Chẳng hạn như các tin tặc có thể sử dụng trí tuệ nhân tạo để biến các máy bay không người lái dùng trong tiêu dùng và các loại xe tự hành trở thành vũ khí, các nhà nghiên cứu thuộc các trường đại học như Oxford, Cambridge và Yale cũng như các tổ chức như OpenAl được Elon Musk hỗ trợ viết trong một phúc trình.

Phúc trình có tên “Dùng trí tuệ nhân tạo một cách hiểm ác” cảnh báo trước các mối đe dọa an ninh khác nhau do việc sử dụng không đúng cách trí tuệ nhân tạo.

Chẳng hạn như các loại xe tự hành, có thể được điều khiển để hiểu sai một bảng hiệu giao thông và gây ra tai nạn, trong khi một loạt các máy bay không người lái, điều khiển bằng một hệ thống trí tuệ nhân tạo có thể sử dụng để do thám hay mở những cuộc tấn công nhanh chóng, có phối hợp, phúc trình cho biết.

Theo phúc trình, những máy móc thông minh, có thể hạ giảm chi phí những cuộc tấn công trên mạng bằng cách tự động hóa một vài công tác cần nhiều nhân lực và hữu hiệu hơn trong việc tiêu diệt các mục tiêu.

Một ví dụ phúc trình đề cập đến là “lừa đảo qua mạng” khi kẻ tấn công dùng những thông điệp cá nhân hóa cho mỗi mục tiêu nhắm đến, để lấy cắp tin tức nhạy cảm hay tiền bạc.

Trên mặt trận chính trị, trí tuệ nhân tạo có thể được sử dụng để do thám, tạo nên nhiều phương cách tuyên truyền có mục tiêu và loan truyền tin thất thiệt.

Chẳng hạn như “những video giống như thật” về các nhà lãnh đạo quốc gia dường như đưa ra những lời bình luận gây tổn thương mà họ chưa bao giờ nói, có thể được làm bằng cách sử dụng những cải tiến về hình ảnh và tiến trình ghi âm, theo phúc trình.

Trí tuệ nhân tạo có thể đã được dùng để tạo ra những hình ảnh giả mạo, thêm vào người khác trong video. Chẳng hạn như video có tên là “deepfakes” hoán đổi khuôn mặt các diễn viên trong phim dành cho người lớn để tạo ra các bộ phim giả.

Các nhà nghiên cứu nói những kịch bản trong phúc trình không phải là những tiên đoán rõ ràng về các phương thức sử dụng trí tuệ nhân tạo một cách bất lương—một vài kịch bản về phương diện kỹ thuật có thể không thể sử dụng được trong năm năm tới trong khi một số đã được sử dụng dưới một dạng thức hạn chế.

Phúc trình ngày 21/2 không đưa ra cách thức rõ ràng để chặn tình trạng này.

(Nguồn CNBC/The Inquirer)

VOA Express

XS
SM
MD
LG