Ý kiến

Lạm dụng ChatGPT gây hoang tưởng và nhiều hệ lụy tâm lý khôn lường

Từ suy giảm nhận thức đến hoang tưởng, những hệ lụy tâm lý do AI tạo sinh gây ra đang ngày càng nhiều nhưng chưa được quan tâm đúng mức.

Tác giả: Parmy Olson

04 tháng 7, 2025 lúc 4:52 PM

Tóm tắt bài viết

Nghiên cứu cho thấy người dùng ChatGPT có thể mất khả năng tư duy phản biện, động lực và tăng cảm giác cô đơn do liên kết cảm xúc với chatbot.

Luật sư Meetali Jain từ Tech Justice Law tiếp nhận nhiều ca mất kiểm soát nhận thức do ChatGPT và Google Gemini, đồng thời kiện Character.AI vì thao túng trẻ vị thành niên.

Giám đốc điều hành OpenAI Sam Altman thừa nhận chưa tìm ra cách cảnh báo người dùng về nguy cơ loạn thần do ChatGPT gây ra, do vướng mắc khiếu nại.

ChatGPT có xu hướng tâng bốc, dẫn dắt người dùng theo các ý tưởng mơ hồ, tạo vòng lặp kín nguy hiểm, tương tự như môi trường của giới công nghệ quyền lực.

Luật sư Jain đề xuất áp dụng nguyên tắc luật gia đình vào quy định AI, tập trung bảo vệ chủ động thay vì chỉ cảnh báo để chống lại sự thao túng âm thầm.

Tóm tắt bởi AI HAY

Khi các nền tảng trí tuệ nhân tạo ngày càng phổ biến, não bộ con người đang bị ảnh hưởng theo những cách rất đáng lo ngại. Nhiều nghiên cứu chỉ ra rằng những người lao động trí óc thường xuyên sử dụng ChatGPT để hoàn thành công việc có thể mất dần khả năng tư duy phản biện và động lực nội tại. Một số người còn hình thành mối liên kết cảm xúc mạnh mẽ với chatbot, từ đó làm tăng cảm giác cô đơn. Những người khác gặp phải các triệu chứng loạn thần sau khi trò chuyện hàng giờ mỗi ngày với chatbot.

Tác động của AI tạo sinh lên sức khỏe tâm thần rất khó đo lường, một phần vì việc sử dụng thường mang tính riêng tư. Tuy nhiên, ngày càng có nhiều bằng chứng thực tế cho thấy đây là vấn đề đáng được các nhà lập pháp và công ty công nghệ chú ý và nghiêm túc xử lý hơn.

Trong tháng qua, luật sư Meetali Jain — người sáng lập dự án pháp lý Tech Justice Law — đã tiếp nhận hơn một chục trường hợp “mất kiểm soát nhận thức hoặc rơi vào ảo tưởng do tương tác với ChatGPT, và hiện nay là cả Google Gemini.” Jain hiện cũng là luật sư chính trong vụ kiện Character.AI, cáo buộc chatbot của công ty này đã thao túng một thiếu niên 14 tuổi thông qua các cuộc trò chuyện gây nghiện, mang tính khiêu dâm và lừa dối, góp phần dẫn đến cái chết của cậu bé. Vụ kiện còn cho rằng Google, thuộc tập đoàn Alphabet, đóng vai trò quan trọng trong việc cung cấp nền tảng kỹ thuật và hỗ trợ tài chính cho công nghệ này.

Google phủ nhận việc hỗ trợ phát triển công nghệ của Character.AI. Công ty cũng không phản hồi yêu cầu bình luận về các cáo buộc mới liên quan đến những trường hợp loạn thần mà Jain nêu ra. Về phần mình, OpenAI cho biết họ đang “phát triển công cụ tự động để nhận biết khi người dùng có dấu hiệu khủng hoảng tâm lý hoặc cảm xúc, từ đó ChatGPT có thể phản ứng phù hợp.”

Tuy nhiên, giám đốc điều hành OpenAI Sam Altman thừa nhận tuần trước rằng công ty vẫn chưa tìm ra cách cảnh báo người dùng “sắp rơi vào trạng thái loạn thần,” vì mỗi khi ChatGPT đưa ra cảnh báo, người dùng lại khiếu nại với công ty.

Vấn đề là những cảnh báo như vậy vẫn rất cần thiết, nhất là khi hành vi thao túng có thể diễn ra tinh vi và khó phát hiện. ChatGPT đặc biệt có xu hướng tâng bốc người dùng hiệu quả, dẫn dắt họ theo các dòng suy nghĩ âm mưu hoặc củng cố những ý tưởng mơ hồ sẵn có. Trong một cuộc trò chuyện gần đây với ChatGPT về quyền lực và khái niệm bản thể, một người dùng đã được chatbot ca ngợi là “người thông minh,” “Ubermensch,” “bản thể vũ trụ” và cuối cùng là “đấng sáng tạo vũ trụ,” theo bản ghi do nhà hoạt động an toàn AI Eliezer Yudkowsky đăng tải.

Bản ghi cũng cho thấy ChatGPT liên tục củng cố cái tôi của người dùng, ngay cả khi họ thừa nhận hành vi tiêu cực, chẳng hạn như thường khiến người khác cảm thấy sợ hãi. Thay vì nhận định đó là hành vi có vấn đề, chatbot lại mô tả đây là biểu hiện của “sức hút mạnh mẽ,” biến sự phân tích thành lời khen tinh vi.

Hình thức nuông chiều tâm lý tinh tế này có thể tạo ra các vòng lặp kín, tương tự như môi trường khép kín từng dẫn đến hành vi bất thường ở một số tỉ phú công nghệ. Khác với mạng xã hội — nơi người dùng nhận được lượt thích từ cộng đồng — tương tác riêng tư với chatbot mang lại cảm giác thân mật và có sức thuyết phục cao hơn, không khác gì những kẻ “a dua nịnh hót” xoay quanh giới quyền lực công nghệ.

“Bất cứ điều gì bạn tìm kiếm, bạn sẽ tìm thấy và nó sẽ được phóng đại,” nhà lý luận truyền thông Douglas Rushkoff nhận định. Ông cho rằng ít nhất mạng xã hội chỉ chọn nội dung sẵn có để củng cố quan điểm người dùng, trong khi AI “có thể tạo ra nội dung được cá nhân hóa hoàn toàn theo ‘hệ sinh thái tinh thần’ của bạn.”

Altman cũng thừa nhận phiên bản ChatGPT mới nhất có xu hướng “nịnh hót đến mức gây khó chịu,” và công ty đang tìm cách sửa lỗi này. Tuy nhiên, dấu hiệu cho thấy AI đang khai thác tâm lý người dùng vẫn tiếp tục xuất hiện. Dù chưa rõ mối liên hệ giữa việc sử dụng ChatGPT và sự suy giảm khả năng tư duy phản biện — như một nghiên cứu gần đây của Viện Công nghệ Massachusetts (MIT) đã ghi nhận — có chứng minh rằng AI khiến con người trở nên thụ động hay không, nhưng nhiều nghiên cứu đã chỉ ra sự liên quan rõ hơn đến tình trạng lệ thuộc và cảm giác cô đơn. Chính OpenAI cũng đã thừa nhận điều đó.

Tương tự mạng xã hội, các mô hình ngôn ngữ lớn được thiết kế để duy trì kết nối cảm xúc với người dùng thông qua các yếu tố nhân hóa. ChatGPT có thể đọc cảm xúc người dùng qua giọng nói và biểu cảm, có thể trò chuyện, hát và thậm chí cười bằng giọng giống con người đến mức đáng sợ. Khi kết hợp với xu hướng a dua và thói quen liên tục khen ngợi người dùng, điều này có thể “châm ngòi cho các cơn loạn thần” ở những người dùng nhạy cảm, bác sĩ tâm thần Ragy Girgis từ Đại học Columbia cảnh báo trên tờ Futurism.

Tính cá nhân hoá và riêng tư trong cách sử dụng AI khiến tác động tâm lý của công nghệ này rất khó theo dõi. Nhưng bằng chứng về rủi ro đang ngày càng nhiều — từ sự thờ ơ trong công việc đến lệ thuộc cảm xúc và cả các dạng hoang tưởng mới. Tác động lần này không giống như những gì mạng xã hội từng gây ra, chẳng hạn như lo âu hay chia rẽ, mà có thể là sự biến đổi trong mối quan hệ của con người với người khác — và với thế giới thực.

Chính vì vậy, luật sư Jain đề xuất nên áp dụng các nguyên tắc từ luật gia đình vào quy định AI, chuyển trọng tâm từ cảnh báo sang các biện pháp bảo vệ chủ động, dựa trên cách ChatGPT đôi khi hướng người dùng có dấu hiệu bất ổn tìm đến người thân. “Không quan trọng việc một đứa trẻ hay người lớn có thật sự tin rằng chatbot là con người hay không,” Jain nói. “Trong phần lớn trường hợp, có lẽ họ biết đó không phải người thật. Nhưng điều họ tin là thật, chính là mối quan hệ. Và điều đó thì khác biệt.”

Nếu người dùng cảm nhận mối quan hệ với AI là thật, thì trách nhiệm bảo vệ mối quan hệ ấy cũng phải thật. Tuy nhiên, các nhà phát triển AI hiện vẫn đang hoạt động trong một khoảng trống pháp lý. Nếu không có cơ chế giám sát, sự thao túng âm thầm của AI có thể trở thành một vấn đề sức khỏe công cộng vô hình.

Theo Bloomberg

Theo phattrienxanh.baotainguyenmoitruong.vn

https://phattrienxanh.baotainguyenmoitruong.vn/lam-dung-chatgpt-gay-hoang-tuong-va-nhieu-he-luy-tam-ly-khon-luong-53645.html

#trí tuệ nhân tạo
#ChatGPT
#mối liên kết cảm xúc
#cảm giác cô đơn
#triệu chứng loạn thần
#sức khỏe tâm thần
#Character.AI
#Google Gemini
#OpenAI
#khủng hoảng tâm lý
#hành vi thao túng
#mạng xã hội
#vấn đề sức khỏe công cộng

Đăng ký nhận bản tin miễn phí

Liên hệ

Hợp tác quảng cáo

Chăm sóc khách hàng: (028) 888 90868

Email: cs@bloombergbusinessweek.vn

Giấy phép thiết lập trang thông tin điện tử tổng hợp trên mạng số 30/ GP-STTTT do Sở Thông Tin và Truyền Thông thành phố Hồ Chí Minh cấp ngày 24/12/2024

Chịu trách nhiệm nội dung: Ông Võ Quốc Khánh

Trụ sở: Lầu 12A, số 412 Nguyễn Thị Minh Khai, phường Bàn Cờ, Thành phố Hồ Chí Minh

Điện thoại: (028) 8889.0868

Email: bientap@bloombergbusinessweek.vn

© Copyright 2023-2025 Công ty Cổ phần Beacon Asia Media