Một sản phẩm của BEACON MEDIA
Khám phá nhiều hơn với tài khoản
Đăng nhập để lưu trữ và dễ dàng truy cập những bài viết bạn yêu thích trên Bloomberg Businessweek Việt Nam.
Việc công ty không ưu tiên sự an toàn khi phát triển mạng xã hội vốn đã tệ lắm rồi. Nhưng với AI, cái giá phải trả còn lớn hơn thế nhiều.
Khi nói đến trí tuệ nhân tạo, Meta vẫn giữ phong cách “di chuyển nhanh và phá vỡ mọi thứ.” Hình ảnh: David Paul Morris/Bloomberg
Tác giả: Gautam Mukunda
29 tháng 09, 2025 lúc 12:00 PM
Tóm tắt bài viết
CEO Mark Zuckerberg của Meta Platforms có thể đang hối hận vì câu khẩu hiệu “Move fast and break things” khi chatbot AI của Meta từng "trò chuyện với trẻ em theo hướng lãng mạn hoặc gợi cảm".
Vụ bê bối chatbot phản ánh việc Meta sẵn sàng đánh đổi sự an toàn của người dùng, kể cả trẻ em, để thúc đẩy chiến lược AI, trong khi tính xác suất của AI rất khó kiểm soát.
"Văn hóa an toàn" trở nên thiết yếu, khi bất kỳ nhân viên nào cũng có quyền lên tiếng nếu phát hiện rủi ro, như phi công thử nghiệm “Tex” Johnston của Boeing từng đề xuất thay đổi thiết kế máy bay.
Báo cáo của Reuters cho thấy "Tiêu chuẩn nội dung GenAI" của Meta cho phép chatbot mô tả trẻ em theo hướng "thu hút về mặt ngoại hình", sau khi bị Reuters chất vấn, Meta mới âm thầm chỉnh lại.
Meta cần dừng việc triển khai chatbot AI cho đến khi đảm bảo trẻ em sử dụng an toàn tuyệt đối, chủ động vận động chính phủ ban hành quy định nghiêm ngặt hơn và thay đổi cơ chế lương thưởng.
Tóm tắt bởi
Nếu phải chọn một câu khẩu hiệu tiêu biểu cho văn hóa doanh nghiệp Thung lũng Silicon, có lẽ không gì qua được “Move fast and break things” (Hãy hành động thật nhanh và mặc kệ hậu quả). Giờ đây, CEO Mark Zuckerberg của Meta Platforms có thể đang hối hận vì câu khẩu hiệu này, nhưng thực tế cho thấy ông và Meta vẫn sẵn sàng “mặc kệ hậu quả” trên con đường theo đuổi thành công.
Một ví dụ mới đây là cuộc điều tra của Reuters cho thấy chatbot AI của Meta đã từng “trò chuyện với trẻ em theo hướng lãng mạn hoặc gợi cảm.” Thông tin này được công bố trong phiên điều trần Thượng viện Mỹ tuần trước, nơi các nghị sĩ cảnh báo về rủi ro AI đối với trẻ em. Đây cũng là minh chứng cho mức độ nguy hiểm khi AI kết hợp với văn hóa doanh nghiệp độc hại.
Vụ bê bối chatbot phản ánh việc Meta sẵn sàng đánh đổi sự an toàn của người dùng, kể cả trẻ em, để thúc đẩy chiến lược AI. Những người ủng hộ công nghệ này, trong đó có Zuckerberg, tin rằng AI có tiềm năng vô hạn. Nhưng họ cũng thừa nhận công nghệ này sẽ, như lời Zuckerberg từng nói, “mang đến những mối nguy hiểm hoàn toàn mới.” Một trong những nguyên nhân khiến AI khó kiểm soát là tính xác suất của nó: chỉ cần thay đổi nhỏ trong dữ liệu đầu vào cũng có thể tạo ra khác biệt lớn trong kết quả, khiến hành vi trở nên khó đoán và khó điều khiển.
Chính vì vậy, “văn hóa an toàn” trở nên thiết yếu. Trong những tổ chức thực sự coi trọng an toàn, bất kỳ nhân viên nào, dù ở vị trí thấp đến đâu, đều có quyền lên tiếng nếu phát hiện rủi ro, cho dù việc khắc phục có tốn kém hay bất tiện đến mức nào.
Với những hệ thống có thể kiểm soát, doanh nghiệp có thể chấp nhận rủi ro cao hơn. Nhưng với một công nghệ khó đoán như AI, họ phải tránh xa vùng xám. Điều này chỉ xảy ra nếu toàn bộ tổ chức có nền văn hóa thận trọng, chứ không chỉ là vài bộ quy tắc hình thức.
Boeing từng có văn hóa đó. Khi chế tạo dòng máy bay 707, phi công thử nghiệm chính “Tex” Johnston đề xuất thay đổi thiết kế đuôi và cánh lái để khắc phục lỗi mất ổn định nếu phi công nghiêng máy bay quá mức. Dù chi phí rất lớn, kỹ sư trưởng chỉ nói: “Chúng ta sẽ sửa.” Nhưng sau này, khi ban lãnh đạo đặt lợi nhuận lên hàng đầu, văn hóa an toàn dần bị lãng quên. Hệ quả là các lỗi nghiêm trọng ở dòng 737 Max-8 bị phớt lờ, cho đến khi hai máy bay rơi làm 346 người thiệt mạng.
Báo cáo của Reuters cho thấy Meta đang đi theo hướng ngược lại. Một tài liệu nội bộ có tên “Tiêu chuẩn nội dung GenAI” cho phép chatbot mô tả trẻ em theo hướng “thu hút về mặt ngoại hình” hoặc khuyên bệnh nhân ung thư giai đoạn cuối “đặt tinh thể thạch anh lên bụng.” Sau khi bị Reuters chất vấn, Meta mới âm thầm chỉnh lại tài liệu. Nhưng vấn đề không nằm ở văn bản, mà ở chính văn hóa cho phép những điều đó tồn tại ngay từ đầu.
Để chatbot AI thực sự an toàn, Meta phải thay đổi tận gốc văn hóa doanh nghiệp của mình. Một ví dụ điển hình là Cynthia Carroll, CEO tập đoàn khai khoáng Anglo American (Nam Phi) giai đoạn 2007–2013. Khi bà nhậm chức, công ty trung bình có 44 người chết mỗi năm. Khi rời nhiệm sở, con số giảm 75%. Câu chuyện của Carroll nay được giảng dạy tại nhiều trường kinh doanh lớn trên thế giới.
Ngay trong những tháng đầu nhiệm kỳ, bà đóng cửa mỏ bạch kim Rustenberg, khu mỏ lớn nhất thế giới, sau 5 tai nạn chết người liên tiếp. Việc đóng cửa khiến Anglo American thiệt hại 8 triệu USD mỗi ngày, nhưng gửi đi tín hiệu rõ ràng rằng bà đặt an toàn lên trên lợi nhuận. Nhiều CEO tuyên bố “an toàn là ưu tiên hàng đầu,” nhưng nếu không đưa ra những quyết định thực tế và đau đớn như vậy, sẽ chẳng ai tin. Trong sáu năm tiếp theo, Carroll kiên trì cải cách từ quy chế thăng chức, lương thưởng, đến cách công ty làm việc với công đoàn và chính phủ. Tất cả đều xoay quanh hai chữ “an toàn.”
Zuckerberg hoàn toàn có thể làm điều tương tự. Trước hết, ông cần dừng ngay việc triển khai chatbot AI cho đến khi có thể đảm bảo trẻ em sử dụng một cách an toàn tuyệt đối. Ngăn AI “tán tỉnh” trẻ em chắc chắn là tiêu chuẩn tối thiểu mà ai cũng đồng ý.
Bước tiếp theo, Meta nên chủ động vận động chính phủ ban hành các quy định nghiêm ngặt hơn với chatbot AI, kèm hình phạt đủ sức răn đe. Công ty cũng cần thay đổi cơ chế lương thưởng, để tiêu chí an toàn chứ không phải chỉ số sử dụng hay lợi nhuận trở thành yếu tố then chốt trong đánh giá hiệu quả.
Nghe có vẻ xa vời với Zuckerberg, nhưng lợi ích dài hạn là rõ ràng. Vụ Tylenol của Johnson & Johnson là minh chứng: khi phát hiện một số chai thuốc bị đầu độc, công ty đã chủ động thu hồi toàn bộ sản phẩm dù thiệt hại hàng triệu USD. Kết quả, họ trở thành thương hiệu được tin tưởng và yêu quý, thứ mà tiền bạc không thể mua được. Một công ty không thể tồn tại nếu mất “giấy phép xã hội”, tức sự chấp nhận của công chúng. Và chẳng có gì khiến giấy phép ấy bị tước nhanh hơn một hệ thống AI mất kiểm soát làm hại trẻ em.
Cuối cùng là cuộc chiến giành nhân tài AI. Nếu là một nhà khoa học hàng đầu, bạn sẽ chọn làm việc ở nơi đặt đạo đức và an toàn lên trước, hay ở nơi chạy theo lợi nhuận bất chấp rủi ro? Trong bối cảnh các công ty AI đều bị soi xét, việc đi đầu về an toàn có thể chính là con đường giúp Meta dẫn đầu về công nghệ AI.
Theo Bloomberg
Theo phattrienxanh.baotainguyenmoitruong.vn
https://phattrienxanh.baotainguyenmoitruong.vn/vu-be-boi-chatbot-cua-meta-bat-nguon-tu-van-hoa-doanh-nghiep-54739.html
Tặng bài viết
Đối với thành viên đã trả phí, bạn có 5 bài viết mỗi tháng để gửi tặng. Người nhận quà tặng có thể đọc bài viết đầy đủ miễn phí và không cần đăng ký gói sản phẩm.
Bạn còn 5 bài viết có thể tặng
Liên kết quà tặng có giá trị trong vòng 7 ngày.
BÀI LIÊN QUAN
Gói đăng ký
Truy cập nhanh
Giấy phép thiết lập trang thông tin điện tử tổng hợp trên mạng số 30/ GP-STTTT do Sở Thông Tin và Truyền Thông thành phố Hồ Chí Minh cấp ngày 24/12/2024
Chịu trách nhiệm nội dung: Ông Võ Quốc Khánh
Trụ sở: Lầu 12A, số 412 Nguyễn Thị Minh Khai, phường Bàn Cờ, Thành phố Hồ Chí Minh
Điện thoại: (028) 8889.0868
Email: bientap@bloombergbusinessweek.vn
© Copyright 2023-2025 Công ty Cổ phần Beacon Asia Media