Ý kiến

Nhà đầu tư Alphabet đang đặt sai câu hỏi về AI

Các đề xuất mới nhất từ các cổ đông cho thấy việc kiểm soát AI và công nghệ hiện nay còn nhiều thiếu sót.

Tác giả: Parmy Olson

11 tháng 6, 2025 lúc 6:07 PM

Một nhóm cổ đông nhỏ của Alphabet vừa đồng loạt kêu gọi tập đoàn này quan tâm hơn đến các rủi ro liên quan đến trí tuệ nhân tạo.

Trung tâm Chính sách và Pháp lý Quốc gia (NLPC) lo ngại AI có thể xâm phạm quyền riêng tư. Inspire Investing, một cổ đông ủng hộ đầu tư theo “giá trị trên Kinh Thánh, cảnh báo AI có thể kiểm duyệt phát ngôn tôn giáo và chính trị. Hiệp hội Cổ đông vì Nghiên cứu và Giáo dục (SHARE) cho rằng công nghệ AI của Google có thể vô tình xóa đi quyền con người và thúc đẩy phân biệt đối xử.

Trong nhiều năm, các hệ quả tiêu cực từ công nghệ đối với con người đã là mối quan tâm chung hiếm hoi giữa các nhà lập pháp Dân chủ và Cộng hòa, đặc biệt khi họ cùng chỉ trích các nền tảng mạng xã hội vì ảnh hưởng đến sức khỏe tâm thần. Nhưng cũng giống như nhiều cuộc tranh luận trước, các chỉ trích gần đây về AI chủ yếu mang tính hình thức và khó tạo ra thay đổi thực chất.

Dù phần lớn cổ đông của Alphabet đã bác bỏ các đề xuất theo khuyến nghị của công ty, kết quả bỏ phiếu không mang nhiều ý nghĩa thực tiễn. Nguyên nhân là vì ba tổ chức trên chỉ yêu cầu Alphabet tự đánh giá và báo cáo về những rủi ro đó.

Cụ thể, NLPC muốn Google công bố liệu họ có đang sử dụng dữ liệu cá nhân để huấn luyện AI hay không. Inspire yêu cầu đánh giá mức độ thiên kiến của AI đối với các quan điểm tôn giáo và chính trị. SHARE muốn tập đoàn soạn báo cáo đánh giá tác động nhân quyền trong quảng cáo sử dụng AI, theo tài liệu ủy quyền năm 2025 của Alphabet.

Alphabet cho biết các yêu cầu này không cần thiết vì công ty đã thực hiện nghiên cứu đầy đủ về các rủi ro này. “Chúng tôi thường xuyên công bố các báo cáo Trách nhiệm AI, cung cấp cái nhìn chi tiết về chính sách, quy trình và cách phát triển các hệ thống AI tiên tiến,” công ty cho biết trong một tuyên bố.

Dù việc yêu cầu sự minh bạch về dữ liệu cá nhân và các rủi ro khác là hợp lý, cả ba đề xuất trên đều thiếu tính ràng buộc khi cho phép Alphabet tự thực hiện thay vì yêu cầu kiểm định độc lập từ các tổ chức bên ngoài. Điều này khiến chúng mang tính biểu tượng hơn là một nỗ lực nhằm tạo ra thay đổi có ý nghĩa — nhất là khi NLPC cũng đã gửi đề xuất tương tự đến nhiều công ty công nghệ khác trong mùa đại hội cổ đông năm nay.

Thung lũng Silicon từ lâu đã là bậc thầy về nghệ thuật “tẩy trắng” tính minh bạch của mình, khi họ thường công bố các bản báo cáo hào nhoáng nhưng thật ra chẳng có ý nghĩa gì. Ví dụ như báo cáo của Meta Platforms về hành vi thù ghét trên Facebook hay các thống kê an toàn của Uber, những bản báo cáo này thường được dùng với mục đích đối phó mỗi khi các nhà lập pháp hoặc tổ chức xã hội chất vấn, bởi không có bộ luật nào buộc các công ty phải tiết lộ thông tin chi tiết về quá trình kiểm duyệt nội dung, thuật toán hay thiết kế mô hình AI.

Khi giám đốc điều hành OpenAI, Sam Altman, ra điều trần trước Thượng viện vào tháng 5.2023 về rủi ro AI, ông cũng nhấn mạnh rằng công ty đã thực hiện nghiên cứu và tiến hành “kiểm toán độc lập bởi các chuyên gia độc lập một cách toàn diện”. Tuy nhiên, một yếu tố then chốt là dữ liệu dùng để huấn luyện các mô hình AI thì lại được được OpenAI giữ bí mật trong suốt nhiều năm qua. Nếu các nhà nghiên cứu hay cơ quan quản lý được tiếp cận dữ liệu này, họ có thể đánh giá chính xác hơn các nguy cơ về bảo mật, thiên kiến hoặc vi phạm bản quyền. OpenAI viện dẫn lý do bảo vệ bí mật thương mại, nhưng nguy cơ phải chịu trách nhiệm pháp lý có thể mới là nguyên nhân thực sự.

Nếu các cổ đông của Alphabet muốn mang đến những thay đổi thực sự, họ nên yêu cầu giám sát độc lập: những kiểm toán viên kỹ thuật từ các công ty kế toán Big Four hoặc tổ chức học thuật có uy tín để đánh giá hệ thống trước khi đưa vào hoạt động. Meta từng làm như vậy khi thuê Ernst & Young kiểm toán một phần báo cáo minh bạch của Facebook, nhưng mức độ vẫn còn rất hạn chế.

Dù ba cổ đông này chiếm tỉ lệ nhỏ trong cơ cấu sở hữu của Alphabet và không có sức ảnh hưởng tài chính lớn tại đại hội thường niên, tiếng nói của họ — đặc biệt là NLPC với xu hướng bảo thủ — sẽ có trọng lượng hơn nếu được chuyển thành các đề xuất chính sách thông qua kênh chính trị. Họ có thể vận động Quốc hội thành lập một cơ quan tương tự Cục quản lý Thực phẩm và Dược phẩm (FDA), nhưng dành cho AI, buộc các công ty phải đáp ứng tiêu chuẩn kỹ thuật nhất định trước khi tung sản phẩm ra thị trường.

Chừng nào điều đó chưa thành hiện thực, mọi sự đồng thuận lưỡng đảng vẫn sẽ bị nhấn chìm trong một hệ thống không bao giờ chịu thay đổi.

Theo Bloomberg

Theo phattrienxanh.baotainguyenmoitruong.vn

https://phattrienxanh.baotainguyenmoitruong.vn/nha-dau-tu-alphabet-dang-dat-sai-cau-hoi-ve-ai-53434.html

#Alphabet
#trí tuệ nhân tạo
#AI
#quyền riêng tư
#công nghệ AI
#mạng xã hội
#dữ liệu cá nhân
#Meta Platforms
#Uber
#kiểm duyệt nội dung
#mô hình AI
#OpenAI
#kiểm toán độc lập
#vi phạm bản quyền
#bí mật thương mại
#tiêu chuẩn kỹ thuật

Đăng ký nhận bản tin miễn phí

Liên hệ

Hợp tác quảng cáo

Chăm sóc khách hàng: (028) 888 90868

Email: cs@bloombergbusinessweek.vn

Giấy phép thiết lập trang thông tin điện tử tổng hợp trên mạng số 30/ GP-STTTT do Sở Thông Tin và Truyền Thông thành phố Hồ Chí Minh cấp ngày 24/12/2024

Chịu trách nhiệm nội dung: Ông Võ Quốc Khánh

Trụ sở: Lầu 12A, số 412 Nguyễn Thị Minh Khai, phường Bàn Cờ, Thành phố Hồ Chí Minh

Điện thoại: (028) 8889.0868

Email: bientap@bloombergbusinessweek.vn

© Copyright 2023-2025 Công ty Cổ phần Beacon Asia Media