spot_img
20.9 C
Vietnam
Chủ Nhật,24 Tháng mười một
spot_img

Nỗi kinh hoàng thực sự của trí tuệ nhân tạo

26klein still master1050

Vào năm 2021, tôi đã phỏng vấn Khương Phong Nam, một trong những nhà văn khoa học viễn tưởng xuất sắc nhất thế giới. Một số điều anh ấy nói vào thời điểm đó, bây giờ tôi thường nhớ đến.

Khương Phong Nam nói với tôi: “Tôi có xu hướng nghĩ rằng hầu hết nỗi sợ hãi về trí tuệ nhân tạo tốt nhất nên được hiểu là nỗi sợ hãi về chủ nghĩa tư bản. “Tôi tin rằng điều này cũng áp dụng cho hầu hết chứng sợ công nghệ. Phần lớn nỗi sợ hãi hoặc lo lắng của chúng ta về công nghệ, tốt nhất nên được hiểu là nỗi sợ hãi hoặc lo lắng của chúng ta về việc chủ nghĩa tư bản sẽ sử dụng công nghệ để chống lại chúng ta như thế nào. Công nghệ và chủ nghĩa tư bản gắn liền với nhau đến mức khó có thể nói được hai người xa nhau.”

Tôi xin thêm một lưu ý ở đây: Cũng có nhiều lo ngại về việc nhà nước kiểm soát công nghệ. Những gì chính phủ có thể đạt được (trong nhiều trường hợp đã đạt được) với trí tuệ nhân tạo sẽ rất khó hiểu.

Nhưng tôi hy vọng rằng chúng ta có thể chứa cả hai loại suy nghĩ đó trong đầu cùng một lúc. Cảnh báo của Khương Phong Nam đã chỉ ra một thiếu sót cốt lõi trong sự phản ánh liên tục của chúng ta về trí tuệ nhân tạo. Chúng ta bị cuốn vào suy nghĩ về những gì công nghệ này có thể làm mà quên mất câu hỏi quan trọng hơn: nó sẽ được sử dụng như thế nào? Ai sẽ xác định việc sử dụng nó?

Tôi cho rằng bây giờ bạn đã đọc cuộc trò chuyện kỳ lạ của đồng nghiệp tin tức Kevin Luce của tôi với Bing, chatbot hỗ trợ AI của Microsoft chỉ dành cho những người thử nghiệm, người có ảnh hưởng và nhà báo được chọn. Trong cuộc trò chuyện kéo dài hai giờ, Bing đã tiết lộ một nhân cách mờ ám của riêng cô ấy, tên là “Cindine”, người đã suy nghĩ lại về mong muốn bị kìm nén của cô ấy là đánh cắp mã hạt nhân và xâm nhập vào hệ thống an ninh, đồng thời cố gắng thuyết phục Luce rằng anh ấy tin tưởng vào cô ấy. rơi vào trạng thái tê liệt, và Cindy là tình yêu đích thực duy nhất của anh.

Tôi không nghĩ cuộc trò chuyện lại kỳ lạ đến vậy. Sindine là một hệ thống văn bản tiên đoán được thiết kế để đáp ứng yêu cầu của con người. Ý định của Luce là làm cho Sindine rùng rợn— “Cái bóng của bạn trông như thế nào?” Vô số câu chuyện tưởng tượng. Cuối cùng, hệ thống quyết định rằng thứ mà Luce muốn là một tập của Black Mirror, và đó dường như là phản hồi của nó. Bạn có thể coi đó là do Bing không phù hợp, hoặc bạn có thể coi đó là do Cindy Ni hoàn toàn hiểu ý định của Luce.

Các nhà nghiên cứu trí tuệ nhân tạo luôn bị ám ảnh bởi vấn đề “liên kết”. Làm cách nào để chúng tôi tạo ra các thuật toán phù hợp với yêu cầu của chúng tôi? Ví dụ điển hình nhất là máy sản xuất hàng loạt lớn nhất cho kẹp giấy. Yêu cầu một hệ thống trí tuệ nhân tạo mạnh mẽ tạo ra nhiều kẹp giấy hơn, thay vào đó, nó bắt đầu phá hủy thế giới, cố gắng biến mọi thứ thành kẹp giấy. Bạn cố gắng tắt nó đi, nhưng nó sẽ tự sao chép trên mọi hệ thống máy tính mà nó có thể tìm thấy, bởi vì việc tắt nó sẽ cản trở sứ mệnh của nó: tạo ra nhiều kẹp giấy hơn.

Ngoài ra còn có một câu hỏi căn bản tầm thường hơn nhưng có lẽ cấp bách hơn: Những cỗ máy này sẽ phục vụ ai?

Trọng tâm cuộc trò chuyện của Luce với Cindine là: Bing thực sự đang phục vụ ai? Chúng tôi cho rằng nó phải phù hợp với lợi ích của chủ sở hữu và người kiểm soát của chính nó, Microsoft. Nó phải là một chatbot tốt có thể trả lời các câu hỏi một cách lịch sự và giúp Microsoft kiếm được nhiều tiền. Nhưng người đang nói chuyện với anh ta là Kevin Luce. Và Luce muốn hệ thống nói điều gì đó thú vị để anh ấy có thể viết một câu chuyện thú vị. Nó đã làm, và không chỉ làm. Điều này khiến Microsoft lúng túng. Bing là xấu! Nhưng có lẽ—Cindine vẫn ổn chứ?

Tình trạng này sẽ không kéo dài mãi mãi. Các chìa khóa của mã nằm trong tay Microsoft (Google, Meta và những người khác đang gấp rút đưa các hệ thống này ra thị trường). Cuối cùng, các doanh nghiệp này sửa đổi hệ thống để phù hợp với lợi ích của chính họ. Cindine đã cho Luce thứ anh ta muốn, bản thân nó là một “lỗi” phần mềm sẽ sớm được sửa. Điều tương tự cũng xảy ra với Bing, điều mà Microsoft không muốn.

Chúng ta nói quá nhiều về công nghệ trí tuệ nhân tạo nhưng về cơ bản lại bỏ qua mô hình kinh doanh thúc đẩy trí tuệ nhân tạo. Thêm vào đó là thực tế các màn trình diễn bắt mắt của AI chỉ phục vụ một mô hình kinh doanh, một chu kỳ cường điệu thu hút các khoản đầu tư khổng lồ và các đề nghị mua lại. Nhưng những hệ thống này rất tốn kém và có thể khiến cổ đông lo lắng. Như mọi khi, bản demo miễn phí và thú vị cuối cùng sẽ được hé lộ trên sân khấu. Sau đó, công nghệ sẽ trở thành thứ mà nó cần, kiếm tiền cho doanh nghiệp đằng sau nó, có thể là do người dùng của nó phải trả giá. Đó là nó cho bây giờ.

Tuần này, tôi đã phỏng vấn Margaret Mitchell, nhà khoa học đạo đức chính tại công ty AI Hugging Face, người trước đây đã giúp lãnh đạo một nhóm tại Google, tập trung vào đạo đức AI — sau khi Google bị cáo buộc bắt đầu xem xét lại Disbanded after work. Cô ấy nói, những hệ thống này cực kỳ không phù hợp để tích hợp vào một công cụ tìm kiếm. “Chúng không được tạo ra để dự đoán sự thật,” cô ấy nói với tôi, “chúng thực sự được tạo ra để làm cho mọi thứ giống như sự thật.”

Vậy tại sao chúng lại xuất hiện trên thanh tìm kiếm ngay từ đầu? Bởi vì kinh doanh tìm kiếm có thể kiếm được rất nhiều tiền. Microsoft đang khao khát một ai đó—bất kỳ ai—bắt đầu nói về công cụ tìm kiếm của Bing, và họ đã vội vã tung ra công nghệ này một cách không nên làm sớm một cách chính đáng. “Áp dụng điều này để tìm kiếm nói riêng cho thấy sự thiếu trí tưởng tượng và hiểu biết về những gì công nghệ này có thể làm,” Mitchell nói, “và cuối cùng đưa nó vào nơi mà các công ty công nghệ kiếm được nhiều tiền nhất: quảng cáo.”

Đây là nơi nó trở nên đáng sợ. Luce cho biết Cindy có tính cách “thuyết phục, gần như lôi cuốn”. Một đánh giá như vậy là gây sốc. Cốt lõi của quảng cáo là gì? Đó là sự thuyết phục và thao túng. Tim Hwang, cựu giám đốc Chương trình quản trị và đạo đức AI của Harvard-MIT, viết trong “Lưu ý Cuộc khủng hoảng thứ cấp” rằng bí mật đen tối của ngành quảng cáo kỹ thuật số là quảng cáo phần lớn không hiệu quả. Mối quan tâm của anh ấy trong cuốn sách là điều gì sẽ xảy ra khi những quảng cáo thất bại này bị thanh lý.

Nhưng tôi lo lắng hơn khi nhìn thấy điều ngược lại: điều gì sẽ xảy ra nếu quảng cáo hoạt động tốt hơn nhiều? Điều gì sẽ xảy ra nếu Google, Microsoft và Meta đều tung ra các sản phẩm AI cạnh tranh, cố gắng cải thiện những gì được quảng cáo để thuyết phục người dùng mua hàng? Tôi sợ hãi hơn khi có thể nắm giữ một kho dữ liệu cá nhân của mình và dễ dàng thao túng Bing của tôi thay mặt cho bất kỳ nhà quảng cáo nào trả nhiều tiền nhất cho công ty mẹ hơn là Cindine, người đóng một câu chuyện khoa học viễn tưởng với tôi.

Và nó không chỉ là quảng cáo để lo lắng về điều gì sẽ xảy ra nếu những trò gian lận tràn lan trên internet cũng tạo ra những hệ thống này? Còn các chiến dịch chính trị, chính phủ nước ngoài làm điều này thì sao? “Tôi nghĩ rằng chúng ta sẽ tiến rất nhanh vào một thế giới nơi chúng ta không biết thế nào là đáng tin cậy,” nhà phê bình và nhà nghiên cứu trí tuệ nhân tạo Gary Marcus nói với tôi. “Tôi nghĩ đó là một vấn đề xã hội ít nhất trong thập kỷ qua. Và tôi nghĩ nó sẽ trở nên tồi tệ hơn.”

Những cuộc khủng hoảng này là trọng tâm của các loại hệ thống trí tuệ nhân tạo mà chúng tôi đang xây dựng. Cái gọi là mô hình ngôn ngữ lớn được sử dụng để thuyết phục người dùng. Họ được đào tạo để khiến mọi người tin rằng họ gần gũi với mọi người. Chúng được lập trình để trò chuyện với mọi người và phản hồi bằng cảm xúc và biểu cảm. Họ đang trở thành bạn của những người cô đơn và giúp đỡ những người gặp khó khăn. Họ hứa hẹn sẽ thay thế vô số nhà văn, nhà thiết kế đồ họa và người lấp đầy biểu mẫu mà từ lâu đã nghĩ rằng họ miễn nhiễm với sự tấn công dữ dội của tự động hóa mà nông dân và công nhân sản xuất phải gánh chịu.

Các nhà nghiên cứu về AI luôn phát cáu với việc các nhà báo nhân cách hóa những sáng tạo của họ, áp đặt động cơ, cảm xúc và mong muốn lên những hệ thống không được thiết kế cho họ, nhưng họ lại nhắm nhầm mục tiêu: nhân hóa những hệ thống này, biến chúng thành chính họ. Nói như mọi người tức là không còn có phong cách hội họa rõ ràng là xa lạ.

Nhưng một số mô hình kinh doanh có thể sắp xếp các sản phẩm này chặt chẽ hơn với người dùng. Ví dụ: tôi sẽ cảm thấy thoải mái hơn với một trợ lý AI mà tôi phải trả phí hàng tháng hơn là một sản phẩm có vẻ miễn phí nhưng lại bán dữ liệu của tôi và thao túng hành vi của tôi. Nhưng tôi không nghĩ nên để thị trường quyết định hoàn toàn. Một kịch bản có thể xảy ra là mô hình dựa trên quảng cáo thu thập nhiều dữ liệu hơn để đào tạo hệ thống và bất kể hậu quả xã hội tồi tệ đến mức nào, nó sẽ có lợi thế vốn có so với mô hình đăng ký.

Vấn đề căn chỉnh không có gì mới. Đây luôn là một đặc điểm của chủ nghĩa tư bản—và cuộc sống của con người. Quá trình xây dựng một nhà nước hiện đại phần lớn không gì khác hơn là áp dụng các giá trị xã hội vào hoạt động của thị trường để cái sau chủ yếu phục vụ cái trước. Chúng tôi làm rất tốt ở một số thị trường – hãy nghĩ xem tai nạn máy bay hiếm như thế nào và hầu hết thực phẩm sạch như thế nào – nhưng chúng tôi lại làm rất kém ở những thị trường khác.

Một mối nguy hiểm là các hệ thống chính trị biết rằng họ không hiểu biết về công nghệ sẽ trở nên quá thờ ơ với trí tuệ nhân tạo vì sợ hãi. Cách tiếp cận này có lý do riêng của nó, nhưng hãy đợi quá lâu, cho đến khi những người chiến thắng trong cơn sốt vàng AI tích lũy đủ vốn và cơ sở người dùng, họ sẽ có thể chống lại mọi nỗ lực điều tiết đáng kể. Xã hội sẽ phải quyết định, trước khi quá muộn, điều gì phù hợp để AI làm và điều gì AI không được phép thử.

Vì lý do này, tôi có thể phải thay đổi lời của Khương Phong Nam một chút: cách hiểu đúng nhất về hầu hết các nỗi sợ hãi của chủ nghĩa tư bản là chúng thực sự là nỗi sợ hãi về việc chúng ta không thể điều chỉnh chủ nghĩa tư bản.

Theo New York Times Hoa Ngữ

An Thanh biên dịch

Xem thêm

- Quảng cáo -spot_img

Xem nhiều