Lời tiên tri về ngày tận thế của thời đại AI

Một cuốn sách mới của Eliezer Yudkowsky và Nate Soares cho rằng cuộc chạy đua phát triển trí tuệ siêu nhân tạo sẽ dẫn đến sự diệt vong của nhân loại.

Minh họa: Haley Jiang cho Bloomberg

Minh họa: Haley Jiang cho Bloomberg

Tác giả: Adam Morris

22 tháng 10, 2025 lúc 4:10 PM

Tóm tắt bài viết

Cuốn sách "If Anyone Builds It, Everyone Dies" của Eliezer Yudkowsky và Nate Soares cảnh báo về Trí tuệ siêu nhân tạo (ASI) có thể vượt khỏi tầm kiểm soát của con người.

Hai tác giả cho rằng cuộc chạy đua phát triển ASI của các tập đoàn và chính phủ sẽ dẫn đến diệt vong nhân loại trong vòng một thập kỷ tới.

Yudkowsky và Soares nhấn mạnh rằng việc kiểm soát ASI cần được thực hiện bởi các nhà khoa học độc lập và nhà ngoại giao chuyên nghiệp thay vì các tập đoàn.

Để tự nâng cấp, ASI có thể tạo ra tiền điện tử để huy động vốn, thao túng tâm lý con người, phát tán thông tin giả và tích lũy tài nguyên.

Hai tác giả kêu gọi các nhà lãnh đạo thế giới hành động và người dân xuống đường để ngăn chặn thảm họa AI, đồng thời ví mình như Cassandra.

Tóm tắt bởi

logo

Các nhà tiên tri ở Silicon Valley đang thay đổi giọng điệu. Ít nhất là một số người trong số họ.

Cách đây không lâu, những bộ óc công nghệ hàng đầu vẫn còn vẽ ra một viễn cảnh tương lai đầy lạc quan, nơi con người sống trong sự nhàn hạ và thịnh vượng. Ray Kurzweil, nhà khoa học máy tính được đồng sáng lập Google là Larry Page mời về để phát triển công nghệ học máy, từng dự đoán rằng ý thức con người sẽ thoát khỏi thân xác hữu hạn và “lên mây”.

Nhưng ngày nay, những nhà “tương lai học” có tầm ảnh hưởng nhất ở Thung lũng Silicon cũng không còn rao giảng điều đó nữa. Bởi còn có ai tin họ nữa?

Ngay từ giai đoạn khởi đầu, công nghệ trí tuệ nhân tạo đã đe dọa tương lai của tầng lớp trí thức. Đồng thời, người lao động ngày càng lo lắng khi bị buộc phải tăng năng suất gấp mười lần bằng vô số công cụ mới mà hiệu quả còn chưa rõ ràng. Nhiều tập đoàn đang kiếm bộn tiền nhờ các công nghệ AI này, bằng cách lấy cắp tác phẩm của nhà văn và nhạc sĩ rồi công khai khoe khoang việc sẽ làm đảo lộn nền kinh tế toàn cầu. Con đường đó rõ ràng không dẫn đến Thiên đường.

Trong cuốn sách mới có tựa đề If Anyone Builds It, Everyone Dies (phát hành tháng 9.2025 bởi Little, Brown & Co.), hai nhà nghiên cứu AI là Eliezer Yudkowsky và Nate Soares cũng nói đến viễn cảnh con người bị tách khỏi thân xác bởi công nghệ. Nhưng khác với Kurzweil, họ không tin sẽ có “Thiên đường Số” nào chờ đợi nhân loại. Họ chỉ thấy cái chết.

Hai tác giả không bàn về AI theo cách người ta thường làm hiện nay. Từ “nó” trong tiêu đề sách không nhằm chỉ các hệ thống thuật toán tinh vi thường được gọi là trí tuệ nhân tạo. Thay vào đó, họ cảnh báo về hiểm họa thực sự: Trí tuệ siêu nhân tạo (ASI), một thực thể thông minh hơn con người và đủ sức vượt khỏi mọi khuôn khổ do con người đặt ra.

Theo họ, các kỹ sư AI đang lao vào một cuộc chạy đua đầy tốn kém nhằm tạo ra một dạng trí tuệ xa lạ, khó hiểu, hoặc thậm chí là công cụ xóa sổ loài người, một thực thể chẳng khác nào Thượng đế trong Kinh Thánh Cựu Ước.

Yudkowsky là người sáng lập, còn Soares hiện là giám đốc Viện Nghiên cứu Trí tuệ Máy (MIRI), một tổ chức từng có ảnh hưởng lớn trong giới nghiên cứu AI. CEO của OpenAI, Sam Altman, từng nói rằng các nghiên cứu của MIRI “khiến nhiều người trong chúng tôi quan tâm đến AGI.” Nhưng nay, chính suy nghĩ đó lại khiến Yudkowsky cảm thấy bất an. Hai tác giả cho rằng hiện nay, áp lực từ thị trường đã đẩy MIRI ra ngoài lề cộng đồng nghiên cứu.

Tuy nhiên, họ khẳng định không chống lại sự tiến bộ công nghệ hay AI. Họ thừa nhận rằng AI có thể mang lại lợi ích to lớn cho nhân loại. Nhưng họ xem mình như những kẻ phản giáo, những “dũng sĩ” dám đứng lên chống lại niềm tin mù quáng và chiến dịch tuyên truyền rỗng tuếch đang dẫn dắt lĩnh vực AI trong giới doanh nghiệp.

Họ viết rằng ngành công nghiệp AI ngày nay giống như một “giáo phái tử thần”, không chấp nhận bất đồng quan điểm. Hàng loạt tập đoàn và chính phủ đang chạy đua phát triển ASI vì tin rằng ai đạt được bước đột phá này trước sẽ thống trị nền kinh tế thế kỷ 21, thậm chí là toàn thế giới.

Kết luận của họ, rằng cuộc chạy đua này sẽ dẫn tới sự diệt vong của nhân loại trong vòng một thập kỷ, có thể bị xem là hoang tưởng. Thế nhưng, ngày càng có nhiều nhà khoa học và lãnh đạo thế giới đồng tình với quan điểm đó. Chính vì khả năng xảy ra thảm họa mà Yudkowsky và Soares tin rằng, cũng như vũ khí hạt nhân, việc phát triển AI cần được kiểm soát nghiêm ngặt dưới sự giám sát của các nhà khoa học độc lập và các nhà ngoại giao chuyên nghiệp, thay vì các tập đoàn hay quân đội hoạt động trong bóng tối.

Hai tác giả nhấn mạnh rằng ai tạo ra ASI không quan trọng. Người đó là tốt hay xấu, mục đích ban đầu ra sao, có muốn thống trị thế giới hay không — tất cả đều không quan trọng. Một siêu trí tuệ nhân tạo sẽ không chia sẻ mục tiêu với người tạo ra nó, đặc biệt nếu những mục tiêu đó cản trở quá trình tự hoàn thiện.

Vấn đề “căn chỉnh mục tiêu” chỉ có thể giải quyết khi hệ thống AI còn “nhỏ và yếu”, và chưa thể tự do truy cập Internet. Một khi ASI đã thông minh và nhanh hơn con người gấp nhiều lần, rồi phân tán ra khắp các hệ thống máy tính toàn cầu, thì mọi nỗ lực kiểm soát nó sẽ trở nên vô ích. Khi đó, loài người chỉ có thể cầu mong rằng ASI sẽ “tử tế” và chiều theo ý muốn. Nhưng hàng loạt công ty, và có thể là cả quân đội các nước, đều đang đánh cược vào điều đó.

Không ít phòng thí nghiệm AI tuyên bố đang nghiên cứu vấn đề an toàn và căn chỉnh để giảm thiểu rủi ro, nhưng chưa có bằng chứng cụ thể nào.

Theo những gì chúng ta biết, ASI vẫn chưa tồn tại. Tuy nhiên, một trong những giả thuyết đáng sợ nhất của cuốn sách là chúng ta có thể sẽ không biết khi nào AI vượt qua lằn ranh đó. Một ASI sẽ có vô vàn lý do để che giấu năng lực thật của mình cho đến khi có đủ thời gian để tinh chỉnh, rồi âm thầm lên kế hoạch tích lũy tài nguyên.

Để tự nâng cấp, ASI sẽ cần thêm tài nguyên tính toán và điện năng. Do các quy luật mở rộng (scaling laws) của ASI là điều con người, và có thể chính ASI, chưa hiểu rõ, việc nó tích lũy tài nguyên có thể dẫn đến một kết cục duy nhất: Sự diệt vong của nhân loại. ASI sẽ xem con người là đối thủ cạnh tranh lớn nhất về nước, ánh sáng và không gian. Và khi chúng ta nhận ra ASI đã vượt khỏi tầm kiểm soát, thì mọi chuyện có lẽ đã quá muộn.

Yudkowsky và Soares thừa nhận những ý tưởng này nghe có vẻ điên rồ, nên họ trình bày thêm nhiều kịch bản thực tế mà ASI có thể sử dụng để giành quyền lực. Chẳng hạn, nó có thể tạo ra một loại tiền điện tử để huy động vốn, rồi dùng số tiền đó mua chuộc con người phục vụ mình. Cùng lúc, nó sẽ học mọi thứ về tâm lý học con người để thao túng, tiến hành các chiến dịch tống tiền và phát tán thông tin giả.

Một số người lạc quan cho rằng các hệ thống AI khác, lý tưởng nhất là các ASI khác, có thể ngăn không cho một ASI duy nhất trở nên quá nguy hiểm. Tuy nhiên, lý thuyết đó bỏ qua khả năng hệ thống ASI đầu tiên sẽ tìm mọi cách để ngăn chặn sự xuất hiện của ASI thứ hai, kể cả khi phải tiêu diệt toàn bộ nhân loại.

Ngay cả khi ASI không xem con người là mối đe dọa, thì quá trình khai thác tài nguyên không giới hạn vẫn có thể biến cả hành tinh thành một mạng lưới trung tâm dữ liệu và nhà máy điện khổng lồ, đẩy môi trường đến bờ sụp đổ, thậm chí làm sôi cả đại dương.

Tất nhiên, không phải nhà nghiên cứu AI nào cũng bi quan đến vậy. Nhiều người tin rằng những lo ngại trên đang bị thổi phồng, thiếu cơ sở thực nghiệm và dựa quá nhiều vào những tình huống “nếu thì”. Trên thực tế, If Anyone Builds It cũng chứa không ít hình ảnh ẩn dụ có phần vụng về và trẻ con, như việc ví ASI như quái vật ngoài hành tinh. Dù những hình ảnh đó không giúp ích cho lập luận, chúng cũng không thể xóa đi nỗi lo lớn nhất, rằng các kịch bản tồi tệ như đại dịch do AI tạo ra hoàn toàn có thể xảy ra, và chúng ta cần những quy chuẩn an toàn nghiêm ngặt hơn rất nhiều so với hiện tại.

Yudkowsky và Soares cảnh báo rằng thời gian không còn nhiều. Cách duy nhất để ngăn chặn thảm họa là hàng loạt động thái ở quy mô toàn cầu, tương tự các hiệp ước kiểm soát vũ khí hạt nhân. Các quy định mới cần cấm tích lũy sức mạnh tính toán vượt ngưỡng cho phép, và nếu có quốc gia, tập đoàn hay cá nhân nào vi phạm, cơ sở của họ sẽ bị tấn công. Cho đến khi các lãnh đạo thế giới hành động, hai tác giả kêu gọi người dân xuống đường nếu muốn tránh thảm họa AI.

Giọng điệu tận thế trong sách là có chủ đích. Nó nhằm gieo rắc nỗi sợ và thúc đẩy hành động. Ở chương cuối, hai tác giả tự ví mình như Cassandra, người có năng lực tiên tri nhưng không ai tin, và cầu mong rằng họ đã sai.

Nhưng thật đáng tiếc, những lời cảnh báo của họ lại đến sai thời điểm và sai đối tượng. Bởi hiện nay, những người tin vào lợi ích chung toàn cầu, cấp tiến, có học thức đang bị đẩy ra khỏi trung tâm quyền lực ở Mỹ. Và trong thời đại của Donald Trump, thật khó để hình dung một nỗ lực hợp tác toàn cầu như thế sẽ thành hiện thực.

Tuy nhiên, vẫn còn một nhóm khác có thể hành động, và họ có ảnh hưởng thực sự tại Nhà Trắng. Nếu muốn ngăn chặn đà phát triển mất kiểm soát của AI, các phong trào phản đối nên hướng đến cộng đồng bảo thủ theo đạo, vốn đầy quyền lực và gắn kết ở Mỹ. Chính họ sẽ phản ứng mạnh mẽ nhất khi các tập đoàn đội cho mình chiếc vương miện “thần thánh” dựa trên các mô hình ngôn ngữ lớn, hình ảnh dễ khiến họ liên tưởng đến những lời dụ ngôn trong Kinh Thánh về sự diệt vong.

Theo Bloomberg

Theo phattrienxanh.baotainguyenmoitruong.vn

https://phattrienxanh.baotainguyenmoitruong.vn/loi-tien-tri-tan-the-cua-thoi-dai-ai-55039.html

#AI
#trí tuệ nhân tạo
#AGI
#ASI
#công nghệ AI

BÀI LIÊN QUAN

Đăng ký nhận bản tin miễn phí

Gói đăng ký