NAVEEN ATHRAPPULLY

Một chuyên gia hàng đầu trong lĩnh vực AI cho biết, xét theo các điều kiện hiện tại hoặc thậm chí trong “tương lai gần”, nhân loại chưa sẵn sàng cho một công nghệ AI uy lực, đồng thời cho biết thêm rằng bức thư ngỏ gần đây kêu gọi lệnh ngừng phát triển trí tuệ nhân tạo tân tiến trong sáu tháng là đang “chưa nói hết mức độ nghiêm trọng của tình hình hiện tại.”

“Vấn đề mấu chốt không phải là trí thông minh ‘có tính cạnh tranh với con người’ (như bức thư ngỏ đó đã đề cập); mà là điều gì xảy ra sau khi AI đạt được trí thông minh hơn cả nhân loại,” ông Eliezer Yudkowsky, một nhà lý thuyết quyết định (decision theorist) và nhà nghiên cứu AI hàng đầu cho biết trong một bài bình luận trên tạp chí Time hôm 29/03. “Nhiều nhà nghiên cứu lão làng về những vấn đề này, trong đó có bản thân tôi, dự đoán rằng kết quả có khả năng cao nhất của việc xây dựng một AI thông minh siêu phàm, dưới dạng thức hầu như khác xa với tình huống hiện tại, là mọi người trên Trái đất sẽ bị diệt vong theo đúng nghĩa trên mặt chữ.”

“Không phải kiểu như ‘có thể là một cơ hội xa vời nào đó,’ mà ‘đó là điều hiển nhiên sẽ xảy ra.’ Về nguyên tắc, không phải là quý vị không thể sống sót khi tạo ra thứ gì đó thông minh hơn mình nhiều; mà là điều này sẽ đòi hỏi sự chính xác và sự chuẩn bị kỹ lưỡng cũng như những hiểu biết sâu sắc về khoa học mới, và có lẽ không cần các hệ thống AI bao gồm các dãy phân số cự đại khó hiểu.”

Sau sự phát triển bùng nổ và mức độ phổ biến gần đây của ChatGPT, một số nhà lãnh đạo doanh nghiệp và nhà nghiên cứu, hiện đã lên tổng cộng 1,843 người, trong đó có ông Elon Musk và ông Steve Wozniak, đã ký một bức thư kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng việc đào tạo các hệ thống AI mạnh mẽ hơn GPT-4 trong ít nhất 6 tháng.” GPT-4, được công bố hồi tháng Ba, là phiên bản mới nhất của ChatGPT – một chatbot của OpenAI.

AI ‘không quan tâm’ và sẽ đòi hỏi các quyền

Ông Yudkowsky dự đoán rằng nếu không có sự chuẩn bị cẩn thận, thì AI sẽ có những nhu cầu rất khác so với con người, cũng như một khi AI tự nhận thức được thì sẽ “không quan tâm đến chúng ta” cũng như bất kỳ sinh mệnh có khả năng nhận thức nào khác. “Loại quan tâm [dành cho con người] đó về nguyên tắc có thể được đưa vào một AI nhưng chúng tôi chưa sẵn sàng và hiện chưa biết làm thế nào.” Đây là lý do vì sao ông ấy kêu gọi ngừng hoàn toàn.

Nếu không biết cách cảm nhận cuộc sống giống như con người, thì AI sẽ đơn giản là xem toàn bộ nhân loại và các sinh vật là “được tạo thành từ các nguyên tử mà nó có thể sử dụng cho mục đích khác.” Và nhân loại hầu như không thể làm gì để ngăn chặn cỗ máy này. Ông Yudkowsky đã so sánh tình huống này với “một đứa trẻ 10 tuổi đang cố gắng chơi cờ vua với Stockfish 15”. Chưa có người chơi cờ nào có thể đánh bại Stockfish, vốn được xem là một kỳ tích bất khả thi.

Vị chuyên gia kỳ cựu trong ngành AI này đã yêu cầu các độc giả hình dung về công nghệ AI khi không còn bị trói buộc trong các giới hạn của internet.

“Hãy hình dung về một nền văn minh hoàn toàn xa lạ, vốn suy nghĩ với tốc độ gấp hàng triệu lần con người, ban đầu chỉ giới hạn trong các máy điện toán – trong một thế giới của những sinh vật, mà xét từ góc độ của AI thì, rất ngu ngốc và rất chậm chạp.”

AI sẽ mở rộng tầm ảnh hưởng của mình ra bên ngoài chu vi của các mạng vật lý và có thể “xây dựng các dạng sống nhân tạo” bằng cách sử dụng các phòng thí nghiệm nơi protein được sản xuất từ các chuỗi DNA.

Một robot AI có tên “Alter 3: Offloaded Agency” được chụp trong một cuốn sách quảng cáo để quảng bá cho cuộc triển lãm sắp tới có tên “AI: More than Human” (AI: Hơn cả Con người), tại Trung tâm Barbican ở London vào ngày 15/05/2019. (Ảnh: Ben Stansall/AFP qua Getty Hình ảnh)
Một robot AI có tên “Alter 3: Offloaded Agency” được chụp trong một cuốn sách quảng cáo để quảng bá cho cuộc triển lãm sắp tới có tên “AI: More than Human” (AI: Hơn cả Con người), tại Trung tâm Barbican ở London vào ngày 15/05/2019. (Ảnh: Ben Stansall/AFP qua Getty Images)

Ông cảnh báo, kết quả cuối cùng của việc xây dựng một AI toàn năng, theo  các điều kiện hiện tại, sẽ là sự hủy diệt của “mọi thành viên loài người và toàn bộ sự sống sinh học trên Trái Đất.”

Ông Yudkowsky đổ lỗi cho OpenAI và DeepMind – hai trong các phòng thí nghiệm nghiên cứu AI hàng đầu thế giới – vì đã không có bất kỳ sự chuẩn bị hoặc giao thức cần thiết nào liên quan đến vấn đề này. OpenAI thậm chí còn dự trù để chính AI thực hiện việc điều chỉnh để phù hợp với các giá trị của con người. OpenAI cho biết: “Chúng [AI] sẽ làm việc cùng với con người để bảo đảm rằng những thế hệ tiếp theo của chúng sẽ phù hợp hơn với con người.”

Ông Yudkowsky cho biết, “Phương thức hành động này “đủ để khiến bất kỳ người nhạy cảm nào cũng phải hoảng sợ.”

Ông nói thêm rằng con người không thể giám sát hoặc phát hiện một cách toàn diện các hệ thống AI tự nhận thức. Những bộ óc kỹ thuật số có ý thức biết đòi hỏi “nhân quyền” có thể tiến triển đến một mức con người không thể sở hữu hoặc kiểm soát hệ thống này nữa.

“Nếu quý vị không chắc liệu mình có đang tạo ra một AI tự nhận thức hay không, thì điều này đáng báo động không chỉ vì những hậu quả về mặt đạo đức của phần ‘tự nhận thức’, mà còn bởi vì sự không chắc chắn có nghĩa là quý vị không biết mình đang làm gì; điều đó thật nguy hiểm và quý vị nên dừng lại.”

Không giống như khi làm các thí nghiệm khoa học khác với tiến trình dần dần có được kiến thức và khả năng, con người không thể làm được như vậy với trí thông minh siêu phàm, bởi vì nếu làm thí nghiệm sai với trí thông minh này trong lần thử đầu tiên, thì sẽ không có các cơ hội thứ hai “vì quý vị đã bị tiêu diệt.”

‘Hãy ngừng công nghệ AI’

Ông Yudkowsky cho biết nhiều nhà nghiên cứu nhận thức được rằng “chúng ta đang lao đầu vào một thảm họa” nhưng lại không lên tiếng về điều đó.

Quan điểm này không giống với quan điểm của những người ủng hộ như ông Bill Gates, người gần đây đã ca ngợi sự phát triển của trí tuệ nhân tạo. Ông Gates tuyên bố rằng sự phát triển của AI là “căn bản như việc tạo ra bộ vi xử lý, máy điện toán cá nhân, Internet, và điện thoại di động. AI sẽ thay đổi cách mọi người làm việc, học tập, đi lại, chăm sóc sức khỏe, và giao tiếp với nhau. Toàn bộ các ngành công nghiệp sẽ định hướng lại xung quanh lĩnh vực này. Các doanh nghiệp sẽ tự tạo nên sự khác biệt cho chính mình dựa vào mức độ thành thạo mà họ sử dụng công nghệ này.”

Ông Gates cho biết AI có thể giúp thực hiện một số nghị trình cấp tiến, bao gồm biến đổi khí hậu và các bất bình đẳng về kinh tế.

Trong khi đó, ông Yudkowsky kêu gọi tất cả các giới quyền uy, kể cả chính phủ và quân đội trên thế giới, chấm dứt vô thời hạn các hoạt động đào tạo AI quy mô lớn và đóng cửa tất cả các trang trại máy điện toán lớn nơi AI đang được phát triển. Ông cho biết thêm rằng AI chỉ nên được giới hạn trong việc giải quyết các vấn đề trong sinh học và công nghệ sinh học, và không nên được đào tạo để đọc “văn bản từ internet” hoặc ở “mức độ mà chúng bắt đầu nói chuyện hoặc hoạch định.”

Liên quan đến AI, thì sẽ không có chạy đua vũ trang. “Tất cả chúng ta đều sẽ cùng sống hoặc cùng bị tiêu diệt – trong vấn đề này thì – không phải là một chính sách mà là một điều đương nhiên.”

Ông Yudkowsky kết luận bằng cách nói rằng, “Chúng ta chưa sẵn sàng. Chúng ta đang không theo đúng lộ trình để chuẩn bị nhiều hơn trong tương lai gần. Nếu chúng ta tiếp tục, thì tất cả mọi người sẽ bị diệt vong, kể cả những trẻ em vốn không hề lựa chọn điều này và cũng không làm điều gì sai.”

“Hãy ngừng công nghệ AI.”

Nhã Đan biên dịch

Chia sẻ bài viết này tới bạn bè của bạn