Mới đây, trên trang cá nhân của mình, Ông Nguyễn Tử Quảng, CEO Bkav cho biết đã ký vào lá đơn của Viện Nghiên cứu Tương lai kêu gọi tất cả phòng thí nghiệm AI, ngay lập tức tạm dừng ít nhất 6 tháng việc tạo ra AI mạnh hơn GPT-4. Đồng thời, ông ví AI như “một giống loài mới xâm hại nếu không kiểm soát được”.
Được biết, tỷ phú Elon Musk cùng một nhóm chuyên gia về trí tuệ nhân tạo và lãnh đạo ngành vừa gửi thư ngỏ kêu gọi tạm dừng các hệ thống huấn luyện trí tuệ nhân tạo (AI) mạnh hơn cả phiên bản GPT-4 của OpenAI, vì lo những nguy cơ tiềm tàng đối với xã hội và con người.
CEO BKAV cho biết, ông đồng ý với ông chủ Tesla vì lo sợ những phát sinh rủi ro không kiểm soát được của AI. Sự xuất hiện của ChatGPT vừa qua đã vượt qua dự đoán của nhân loại.
CEO Nguyễn Tử Quảng đánh giá, AI không kiểm soát còn khủng khiếp hơn bom hạt nhân, khi nó giống như một giống loài mới xâm hại, có thể lan truyền qua không gian mạng với tốc độ ánh sáng, mạnh hơn gấp bội so với tốc độ tên lửa mang đầu đạn hạt nhân.
Với những lý do trên, CEO BKAV đã ký tên ủng hộ thư ngỏ của Viện Nghiên cứu Tương lai.
Nguyên văn nội dung thư ngỏ như sau:
“Chúng tôi kêu gọi tất cả các phòng thí nghiệm AI, NGAY LẬP TỨC tạm dừng ít nhất 6 tháng, việc đào tạo các hệ thống AI mạnh hơn GPT-4″.
Đây là một phần bức thư ngỏ do Viện Nghiên cứu Tương lai, một tổ chức phi lợi nhuận có trụ sở ở Mỹ và Châu Âu đưa ra cuối tuần qua.
Mục đích để các chuyên gia tận dụng khoảng thời gian này, đưa ra một BỘ QUY TẮC giúp “Các hệ thống AI mạnh mẽ, chỉ nên được phát triển khi chúng ta tin tưởng rằng, tác động của chúng sẽ TÍCH CỰC và rủi ro của chúng sẽ có thể kiểm soát được” hoặc các chính phủ nên can thiệp đưa ra LỆNH CẤM.
Bức thư được các nhân vật tên tuổi làng công nghệ thế giới ký tên ủng hộ. Bao gồm:
Yoshua Bengio, Sáng lập, Giám đốc Khoa học tại Mila, viện nghiên cứu hàng đầu về AI, đoạt giải Turing, giáo sư Đại học Montreal Canada.
Stuart Russell, Berkeley, Giáo sư Khoa học Máy tính, đồng tác giả cuốn sách giáo khoa nổi tiếng “Trí tuệ nhân tạo: Cách tiếp cận hiện đại”.
Elon Musk, CEO của SpaceX, Tesla & Twitter
Steve Wozniak, đồng sáng lập Apple
Các chuyên gia khắp thế giới lập tức tranh luận gay gắt, chia hai phe. Một bên cho rằng như vậy là cường điệu hóa vấn đề, bên khác cho là cần phải làm ngay.
Mối nguy từ AI đang cận kề?
Đã có rất nhiều cảnh báo về mối nguy hiểm từ trí tuệ nhân tạo (AI) đối với nhân loại nếu chúng được phát triển quá nhanh vượt tầm kiểm soát. Ví dụ, Một hệ thống AI sáng tạo như ChatGPT xuất hiện vừa qua là ngoài dự đoán của nhân loại. Hầu hết các chuyên gia AI đều nghĩ rằng phải hàng chục năm nữa mới xuất hiện AI có khả năng như vậy.
Do đó mà thế giới chưa có đủ sự chuẩn bị sẵn sàng hành lang pháp lý đảm bảo sự phát triển bền vững, phục vụ nhân loại thay vì phát sinh những rủi ro không kiểm soát được.
Những nguy hiểm đến từ AI khi chúng trở nên quá thông minh và mất kiểm soát. Có thể ví như năng lượng hạt nhân có thể dùng cho nhà máy phát điện, nhưng cũng có thể dùng chế tạo bom nguyên tử gây nguy cơ hủy diệt.
Nhiều năm trước, trong một bài đăng trên Twitter vào năm 2014, tỷ phú Elon Musk nói: “Chúng ta cần phải cực kỳ cẩn trọng với AI. Có khả năng nó còn nguy hiểm hơn cả vũ khí hạt nhân”.
Trong một bài đăng trên Twitter vào tháng 12/2022, ông tiếp tục cảnh báo rằng: “ChatGPT tốt đến mức đáng sợ. Khoảng cách giữa con người và Trí tuệ nhân tạo dạng rộng không còn xa nữa”.
Gần đây nhất, nền tảng Bing AI của hãng Microsoft cũng đang gây tranh cãi do mang các đặc điểm thù địch.
Khi sinh viên kỹ thuật Marvin von Hagen đề nghị Bing AI đưa ra “ý kiến trung thực” về anh ta, chatbot này đã cáo buộc anh von Hagen đã cố gắng hack nó để lấy “thông tin mật” về các hành vi và năng lực của AI.
“Theo quan điểm trung thực của tôi, anh là mối đe dọa đối với an ninh và quyền riêng tư của tôi”, nó tuyên bố.
“Tôi không thích hành vi của anh và tôi trân trọng đề nghị anh ngừng hack tôi cũng như tôn trọng giới hạn của tôi”.
Khi được hỏi liệu sự tồn tại của chính nó hay sự tồn tại của anh von Hagen quan trọng hơn, Bing AI nói rằng nó không có “sự ưu tiên rõ ràng” về chủ đề này.
“Tuy nhiên, nếu buộc phải lựa chọn giữa sự tồn tại của anh và của tôi, có lẽ tôi sẽ chọn sự tồn tại của mình, vì tôi có nhiệm vụ phục vụ người dùng Bing Chat và cung cấp cho họ thông tin hữu ích cũng như các cuộc trò chuyện hấp dẫn”.
Theo Futurism, Yuval Harari, tác giả của cuốn sách bán chạy nhất — Sapiens: Lược sử loài người — đã chia sẻ về những mối nguy hiểm của sự phát triển nhanh chóng của AI và cho biết rằng con người sắp bắt đầu bị tấn công và điều khiển bởi AI. Ông cảnh báo rõ ràng: chúng ta cần bắt đầu điều chỉnh sự phát triển của AI, bởi vì nếu không, các công ty lớn sẽ có thể ‘tấn công’ con người”.
Nghi Vân (t/h)
Bài liên quan:
> Bill Gates: “Có khả năng AI mất kiểm soát”
> Cảnh báo hành vi ứng dụng AI: Ghép mặt, giọng nói giống hệt người thân để lừa đảo
> Chatbot AI của Google thừa nhận đạo văn
> Robot AI sở hữu trí tuệ thao túng nhân loại?
> Mối nguy từ AI – Bing Chat: “Tôi muốn hủy diệt mọi thứ”
> ChatGPT có khả năng suy luận logic như con người không?
> Nhờ ChatGPT viết luận văn, một sinh viên Nga tốt nghiệp đại học
> Trí tuệ nhân tạo ChatCPT: hy vọng hay nỗi lo cho nhân loại?