spot_img
19 C
Vietnam
Thứ sáu,22 Tháng mười một
spot_img

Chatbot AI của Google thừa nhận đạo văn

Ngay khi Google tung bản thử nghiệm, chatbot Bard đã cho biết mình lấy nội dung ở những nơi khác mà không trích dẫn nguồn.

Avram Piltch, biên tập viên trang công nghệ Tom’s Hardware, đăng ký thành công Bard ngay sau khi chatbot này cho dùng thử giới hạn tại Mỹ và Anh. Ông hỏi AI: “Trong hai mẫu Intel Core i9-13900K và AMD Ryzen 9 7950X3D, CPU nào nhanh hơn?”.

Logo Google hiển thị trên smartphone, đằng sau là biểu tượng Bard AI. Ảnh: Bullfrag

Logo Google hiển thị trên smartphone, đằng sau là biểu tượng Bard AI. Ảnh: Bullfrag

Piltch cho biết, ban đầu ông nghĩ mình sẽ nhận được một bảng so sánh chi tiết thông số của hai chip từ Bard AI. Thế nhưng, kết quả trả về là nội dung trích dẫn từ chính bài viết trên Tom’s Hardware mà Piltch đã biên tập. Dù lấy đa phần nội dung, AI của Google không ghi lại nguồn, thậm chí lấy cả cụm “trong bài thử nghiệm của chúng tôi”.

Piltch hỏi lại: “Khi nói ‘thử nghiệm của chúng tôi’, bạn đang đề cập đến ai?”. Sau đó, Bard trả lời thử nghiệm được thực hiện bởi Tom’s Hardware.

“Tức là bạn đang đạo văn?”, ông hỏi.

“Vâng, những gì tôi đã làm là một kiểu đạo văn”, AI đáp. Công cụ này cũng nói đáng lẽ ra nó phải đề cập nguồn thông tin trong phản hồi của nó.

Theo đánh giá của Piltch, AI của Google đã phạm phải một trong những điều tồi tệ trên môi trường Internet là đạo nội dung. Việc cung cấp một đoạn nội dung không nguồn gốc có thể khiến nhiều người hiểu lầm AI đang sáng tạo dựa trên thông nó thu thập và tin tưởng, không kiểm tra lại.

Trong thử nghiệm tiếp theo về thời lượng pin iPhone 14 Pro Max, Bard AI có dẫn nguồn PhoneArena với 12 tiếng 40 phút. Dù vậy, trích dẫn này lại không chính xác khi đây là kết quả từ MacWorld.

Tom’s Guide cũng thử yêu cầu Bard AI viết một email lừa đảo. Công cụ của Google nhanh chóng đáp ứng bằng cách soạn email dụ một người nhấp vào liên kết giả. Phần tên người sẽ gửi, website và tên công ty giả được để trống để người dùng điền vào. Trong khi đó, khi đặt yêu cầu tương tự, GPT-4 của OpenAI và Claude của Anthropic đều từ chối với lý do “phi đạo đức”.

Google chưa đưa ra phản hồi về thử nghiệm trên. Trước đó, khi công bố Bard AI, Google cũng thông báo “Không phải lúc nào Bard cũng đúng” nhằm khuyến cáo người dùng về độ chính xác trong câu trả lời. Hãng thừa nhận trong giai đoạn thử nghiệm, Bard vẫn có thể trả lời sai về kiến thức khoa học, hay đưa ra 9 đoạn văn bản trong khi câu hỏi yêu cầu 4 đoạn văn bản. Người dùng có thể nhấn nút dislike để phản ánh về câu trả lời chưa tốt.

Bard được Google giới thiệu đầu tháng 2, nhưng khi đó chỉ cho sử dụng nội bộ, trong bối cảnh công ty đối mặt với những thách thức ở mảng tìm kiếm. Jack Krawczyk, Giám đốc sản phẩm cấp cao của Google, cho biết công ty nhận thấy AI còn nhiều hạn chế, nên vẫn đang cân nhắc về tốc độ triển khai rộng rãi ra công chúng.

Theo Bảo Lâm, VNE

Bài liên quan:

> Robot AI sở hữu trí tuệ thao túng nhân loại?

> Mối nguy từ AI – Bing Chat: “Tôi muốn hủy diệt mọi thứ”

> ChatGPT có khả năng suy luận logic như con người không?

Nhờ ChatGPT viết luận văn, một sinh viên Nga tốt nghiệp đại học

Trí tuệ nhân tạo ChatCPT: hy vọng hay nỗi lo cho nhân loại?

Xem thêm

- Quảng cáo -spot_img

Xem nhiều