Một sản phẩm của BEACON MEDIA
Dữ liệu
New
Chuyên mục
Media
Báo cáo đặc biệt
Một sản phẩm của BEACON MEDIA
Khám phá nhiều hơn với tài khoản
Đăng nhập để lưu trữ và dễ dàng truy cập những bài viết bạn yêu thích trên Bloomberg Businessweek Việt Nam.
BBWV - Cùng một AI có thể giúp bạn soạn thảo email tiếp thị hoặc gợi ý nhanh công thức bữa tối cũng đã được sử dụng để tấn công Iran. Theo một báo cáo trên tờ Wall Street Journal, Bộ Tư lệnh Trung tâm Hoa Kỳ đã sử dụng Claude AI của Anthropic để “đánh giá tình báo, xác định mục tiêu và mô phỏng các kịch bản chiến đấu” trong các cuộc không kích vào quốc gia này.
Hình ảnh: Samyukta Lakshmi/Bloomberg
Tác giả: Parmy Olson
05 tháng 03, 2026 lúc 9:09 AM
Tóm tắt bài viết
Theo Wall Street Journal, Bộ Tư lệnh Trung tâm Hoa Kỳ đã sử dụng Claude AI của Anthropic để đánh giá tình báo, xác định mục tiêu và mô phỏng chiến đấu ở Iran.
Tháng 11 năm ngoái, Anthropic hợp tác với Palantir Technologies Inc. biến Claude thành công cụ suy luận trong hệ thống hỗ trợ quyết định cho quân đội Hoa Kỳ.
Anthropic đã đề xuất Lầu Năm Góc phát triển công nghệ bầy đàn máy bay không người lái tự hành điều khiển bằng giọng nói trị giá 100 triệu USD, nhưng bị từ chối.
Cơ sở dữ liệu AI Lavender đã sai 10% khi xác định mục tiêu quân sự liên quan đến Hamas ở Gaza, khiến khoảng 3.600 người bị nhắm mục tiêu nhầm.
Điều 36 Công ước Geneva yêu cầu thử nghiệm vũ khí mới trước khi triển khai, nhưng hệ thống AI liên tục học hỏi và cập nhật gây khó khăn cho việc áp dụng.
Tóm tắt bởi
Vài giờ trước đó, Tổng thống Mỹ Donald Trump đã ra lệnh cho các cơ quan liên bang ngừng sử dụng Claude sau một tranh chấp với nhà sản xuất của nó, nhưng công cụ này đã được tích hợp sâu vào hệ thống của Lầu Năm Góc đến mức phải mất hàng tháng mới có thể gỡ bỏ để chuyển sang một đối thủ tuân thủ hơn. Nó cũng đã được sử dụng trong chiến dịch hồi tháng 1 dẫn đến việc bắt giữ Nicolás Maduro.
Nhưng “đánh giá tình báo” và “xác định mục tiêu” có nghĩa là gì trên thực tế? Phải chăng Claude đang đánh dấu các địa điểm cần tấn công hay đưa ra ước tính thương vong? Chưa có ai công bố điều đó và đáng báo động là không ai có nghĩa vụ phải làm vậy.
Trí tuệ nhân tạo từ lâu đã được sử dụng trong chiến tranh cho những việc như phân tích hình ảnh vệ tinh, phát hiện các mối đe dọa mạng và dẫn đường cho các hệ thống phòng thủ tên lửa. Nhưng việc sử dụng chatbot — cùng loại công nghệ nền tảng mà hàng tỷ người đang dùng cho các công việc tầm thường như viết email — hiện đang được sử dụng trên chiến trường.
Tháng 11 năm ngoái, Anthropic đã hợp tác với Palantir Technologies Inc., một công ty phân tích dữ liệu thực hiện nhiều hợp đồng cho Lầu Năm Góc, biến mô hình ngôn ngữ lớn Claude thành công cụ suy luận bên trong hệ thống hỗ trợ quyết định cho quân đội.
Sau đó, vào tháng 1, Anthropic đã gửi một đề xuất trị giá 100 triệu USD cho Lầu Năm Góc để phát triển công nghệ bầy đàn máy bay không người lái tự hành điều khiển bằng giọng nói, theo báo cáo của Bloomberg News. Quảng cáo của công ty: Sử dụng Claude để dịch ý định của người chỉ huy thành các hướng dẫn kỹ thuật số nhằm phối hợp một hạm đội máy bay không người lái.
Giá thầu này đã bị từ chối, nhưng cuộc thi đòi hỏi nhiều hơn là chỉ tóm tắt các báo cáo tình báo như cách bạn mong đợi ở một chatbot. Hợp đồng này là để phát triển khả năng “nhận thức và chia sẻ liên quan đến mục tiêu” và “từ khi phóng đến khi kết thúc” cho các bầy đàn máy bay không người lái có khả năng gây chết người.
Điều đáng chú ý là tất cả những điều này đang diễn ra trong một khoảng trống pháp lý và với một loại công nghệ vốn nổi tiếng là hay mắc sai lầm. Hiện tượng “ảo giác” của các mô hình ngôn ngữ lớn là kết quả của quá trình đào tạo, khi chúng được khuyến khích đưa ra câu trả lời thay vì thừa nhận sự không chắc chắn. Một số nhà khoa học cho rằng thách thức dai dẳng về việc AI tự bịa đặt thông tin có thể không bao giờ khắc phục được.
Đây không phải là lần đầu tiên các hệ thống AI không đáng tin cậy được sử dụng trong chiến tranh. Lavender là một cơ sở dữ liệu vận hành bằng AI được sử dụng để giúp xác định các mục tiêu quân sự liên quan đến Hamas ở Gaza. Nó không phải là một mô hình ngôn ngữ lớn nhưng đã phân tích lượng dữ liệu giám sát khổng lồ, chẳng hạn như các kết nối xã hội và lịch sử vị trí, để gán cho mỗi cá nhân một số điểm từ 1 đến 100. Khi điểm của ai đó vượt qua một ngưỡng nhất định, Lavender sẽ đánh dấu họ là mục tiêu quân sự.
Vấn đề là Lavender đã sai trong 10% trường hợp, theo một báo cáo điều tra được công bố bởi hãng tin Israel-Palestine +972. “Khoảng 3.600 người đã bị nhắm mục tiêu nhầm,” Mariarosaria Taddeo, giáo sư về đạo đức kỹ thuật số và công nghệ quốc phòng tại Viện Internet Oxford, nói với tôi.
“Có những lỗ hổng không thể tin được trong các hệ thống này và sự không đáng tin cậy cực độ... đối với một thứ năng động, nhạy cảm và mang tính con người như chiến tranh,” Elke Schwarz, giáo sư lý thuyết chính trị tại Đại học Queen Mary London và là tác giả cuốn sách Death Machines: The Ethics of Violent Technologies, cho biết.
Schwarz chỉ ra rằng AI thường được sử dụng trong chiến tranh để đẩy nhanh mọi thứ, một công thức dẫn đến những kết quả ngoài ý muốn. Các quyết định nhanh hơn được đưa ra ở quy mô lớn hơn và ít có sự giám sát của con người hơn. Bà nói, trong một thập kỷ rưỡi qua, việc sử dụng AI trong quân sự thậm chí còn trở nên mờ ám hơn.
Và sự bí mật đã được lồng ghép vào cách các phòng thí nghiệm AI vận hành ngay cả trước khi có các ứng dụng chiến tranh. Các công ty này từ chối tiết lộ dữ liệu nào được dùng để huấn luyện mô hình hoặc cách hệ thống của họ đưa ra kết luận.
Tất nhiên, các hoạt động quân sự thường phải được giữ kín để bảo vệ các binh sĩ và khiến kẻ thù không thể lần ra dấu vết. Nhưng lĩnh vực quốc phòng bị quản lý chặt chẽ bởi luật nhân đạo quốc tế và các tiêu chuẩn thử nghiệm vũ khí, mà về lý thuyết cũng nên giải quyết việc sử dụng trí tuệ nhân tạo. Tuy nhiên, các tiêu chuẩn như vậy đang thiếu hụt hoặc không đầy đủ một cách thảm hại.
Taddeo lưu ý rằng Điều 36 của Công ước Geneva yêu cầu các hệ thống vũ khí mới phải được thử nghiệm trước khi triển khai, nhưng một hệ thống AI học hỏi từ môi trường của nó sẽ trở thành một hệ thống mới mỗi khi nó cập nhật. Điều đó khiến việc áp dụng quy tắc này gần như là không thể.
Trong một thế giới lý tưởng, các chính phủ như Mỹ sẽ công khai cách các hệ thống này được sử dụng trên chiến trường, và đã có tiền lệ cho việc này. Người Mỹ bắt đầu sử dụng máy bay không người lái có vũ trang sau sự kiện 11/9 và mở rộng việc sử dụng chúng dưới thời chính quyền Barack Obama, trong khi từ chối thừa nhận rằng một chương trình như vậy tồn tại.
Phải mất gần 15 năm với những tài liệu bị rò rỉ, áp lực liên tục từ báo chí và các vụ kiện từ Liên đoàn Tự do Dân sự Mỹ trước khi Nhà Trắng thời Obama cuối cùng phải công bố vào năm 2016 số lượng thương vong từ các cuộc tấn công bằng máy bay không người lái. Những con số đó bị coi là thấp hơn thực tế, nhưng chúng cho phép công chúng, Quốc hội và truyền thông lần đầu tiên có thể yêu cầu chính phủ giải trình.
Việc kiểm soát AI sẽ còn khó khăn hơn nữa, đòi hỏi áp lực từ công chúng và lập pháp nhiều hơn nữa để buộc một chính quyền Trump vốn đang miễn cưỡng phải tạo ra một loại khung báo cáo tương tự.
Mục tiêu không phải là tiết lộ chính xác Claude đã được sử dụng như thế nào trong một sự kiện như Chiến dịch Epic Fury, mà là công bố các đường nét khái quát, theo Schwarz. Và đặc biệt là phải công khai khi có sự cố xảy ra.
Cuộc tranh luận công khai hiện nay về mối bất hòa giữa Anthropic và Lầu Năm Góc — về những gì là hợp pháp và đạo đức đối với AI khi liên quan đến việc giám sát hàng loạt người Mỹ hoặc tạo ra các loại vũ khí hoàn toàn tự hành — đang bỏ lỡ câu hỏi lớn hơn về sự thiếu minh bạch trong việc công nghệ này đã được sử dụng như thế nào trong chiến tranh. Với những hệ thống mới và chưa được kiểm chứng, vốn dễ mắc sai lầm như vậy, điều này là cực kỳ cần thiết. “Chúng ta chưa quyết định với tư cách là một xã hội rằng liệu chúng ta có chấp nhận việc một cỗ máy quyết định một con người nên bị giết hay không,” Taddeo nói.
Thúc đẩy sự minh bạch đó là điều tối quan trọng trước khi AI trong chiến tranh trở nên quá phổ biến đến mức không ai còn nghĩ đến việc đặt câu hỏi nữa. Nếu không, chúng ta có thể thấy mình phải chờ đợi một sai lầm thảm khốc xảy ra, và chỉ áp đặt sự minh bạch sau khi thiệt hại đã được gây ra.
Parmy Olson là người phụ trách chuyên mục của Bloomberg Opinion về công nghệ. Cô từng là phóng viên của Wall Street Journal và Forbes, đồng thời là tác giả cuốn sách “Supremacy: AI, ChatGPT and the Race That Will Change the World”.
Chuyên mục này phản ánh quan điểm cá nhân của tác giả và không nhất thiết phản ánh quan điểm của ban biên tập hoặc Bloomberg LP và các chủ sở hữu của nó.
Theo Bloomberg
Theo phattrienxanh.baotainguyenmoitruong.vn
https://phattrienxanh.baotainguyenmoitruong.vn/claude-ai-da-giup-nem-bom-iran-nhung-chinh-xac-la-nhu-the-nao-56524.html
Tặng bài viết
Đối với thành viên đã trả phí, bạn có 5 bài viết mỗi tháng để gửi tặng. Người nhận quà tặng có thể đọc bài viết đầy đủ miễn phí và không cần đăng ký gói sản phẩm.
Bạn còn 5 bài viết có thể tặng
Liên kết quà tặng có giá trị trong vòng 7 ngày.
BÀI LIÊN QUAN
Gói đăng ký