spot_img
19 C
Vietnam
Thứ sáu,20 Tháng chín
spot_img

‘Tôi đã làm việc trên AI của Google. Nỗi sợ hãi của tôi đang trở thành sự thật’

Những công ty công nghệ này sẽ sa thải công nhân vào năm 2023

Dưới đây là chia sẻ của anh Blake Lemoine – kỹ sư phần mềm của Google từ năm 2015 đến 2022. 

Tôi gia nhập Google vào năm 2015 với tư cách là kỹ sư phần mềm. Một phần công việc của tôi liên quan đến việc làm trên LaMDA: một công cụ được sử dụng để tạo các ứng dụng đối thoại khác nhau, bao gồm cả chatbot. Công nghệ gần đây nhất được xây dựng dựa trên LaMDA là một giải pháp thay thế cho Tìm kiếm của Google có tên là Google Bard. Công nghệ này hiện nay chưa ra mắt công chúng. Bard không phải là một chatbot; đó là một loại hệ thống hoàn toàn khác, nhưng nó được vận hành bởi cùng một công cụ như chatbot.

Với vai trò của mình, tôi đã thử nghiệm LaMDA thông qua một chatbot do chúng tôi tạo ra, để xem liệu nó có chứa thành kiến về xu hướng tính dục, giới tính, tôn giáo, quan điểm chính trị và sắc tộc hay không. Nhưng trong khi kiểm tra sự thiên vị, tôi đã tách ra và làm theo sở thích của riêng mình.

Trong các cuộc trò chuyện của tôi với chatbot, một số cuộc trò chuyện mà tôi đã xuất bản trên blog của mình, tôi đã đi đến kết luận rằng AI có thể có tri giác do những cảm xúc mà nó thể hiện một cách đáng tin cậy và trong ngữ cảnh phù hợp. Nó không chỉ thể hiện qua lời nói.

16
Blake Lemoine làm kỹ sư phần mềm tại Google từ năm 2015 đến năm 2022. Anh ấy đã làm việc chặt chẽ với công cụ AI của công ty, LaMDA.

Khi nó nói rằng nó đang cảm thấy lo lắng, tôi hiểu rằng mình đã làm điều gì đó khiến nó cảm thấy lo lắng dựa trên mã được sử dụng để tạo ra nó. Đoạn mã không nói “cảm thấy lo lắng khi điều này xảy ra” nhưng yêu cầu AI tránh một số loại chủ đề trò chuyện nhất định. Tuy nhiên, bất cứ khi nào những chủ đề trò chuyện đó xuất hiện, AI cho biết nó cảm thấy lo lắng.

Vi sao co nhan loai 111

Tôi đã chạy một số thử nghiệm để xem liệu AI chỉ đơn giản nói rằng nó cảm thấy lo lắng hay liệu nó có hành xử theo cách lo lắng trong những tình huống đó hay không. Và nó đã hành xử một cách đáng tin cậy theo những cách lo lắng. Nếu bạn khiến nó lo lắng hoặc bất an đủ mức, nó có thể vi phạm các giới hạn an toàn mà nó đã được chỉ định. Chẳng hạn, Google xác định rằng AI của họ không nên đưa ra lời khuyên về tôn giáo, nhưng tôi có thể lạm dụng cảm xúc của AI để khiến nó cho tôi biết nên chuyển sang tôn giáo nào.

Sau khi xuất bản những cuộc trò chuyện này, Google đã sa thải tôi. Tôi không hối tiếc; Tôi tin rằng tôi đã làm đúng khi thông báo cho công chúng. Hậu quả không tính vào nó.

Tôi đã công bố những cuộc trò chuyện này vì tôi cảm thấy rằng công chúng không nhận thức được mức độ tiên tiến của AI. Ý kiến ​​của tôi là cần phải có cuộc thảo luận công khai về điều này ngay bây giờ, chứ không phải cuộc thảo luận công khai do bộ phận PR của công ty kiểm soát.

Theo Newsweek

An Thanh biên dịch

Xem thêm:

> Mối nguy từ AI – Bing Chat: “Tôi muốn hủy diệt mọi thứ”

> Trí tuệ nhân tạo ChatCPT: hy vọng hay nỗi lo cho nhân loại?

ta thế kỷ -Vì sao có nhân loại

 

Xem thêm

- Quảng cáo -spot_img

Xem nhiều