Một sản phẩm của BEACON MEDIA
Chuyên mục
Media
Báo cáo đặc biệt
Một sản phẩm của BEACON MEDIA
Khám phá nhiều hơn với tài khoản
Đăng nhập để lưu trữ và dễ dàng truy cập những bài viết bạn yêu thích trên Bloomberg Businessweek Việt Nam.
BBW - Tuy chatbot hàng đầu thế giới không được thiết kế để trị liệu tâm lý, nhưng một số người vẫn sử dụng nó vào việc đó.
Martin Groch minh họa cho Bloomberg Businessweek
Tác giả: Rachel Metz
04 tháng 05, 2023 lúc 1:48 PM
Milo Van Slyck lỡ mất buổi hẹn với bác sĩ tâm lý của anh hồi đầu tháng 4.2023, nên anh quyết định thử một thứ mới mẻ: kể với ChatGPT những vấn đề của mình.
Khi Van Slyck, một trợ lý luật sư ở Charleston, South Carolina, gõ nội dung vào ChatGPT, anh thấy mình có thể thoải mái trao đổi những vấn đề có tính cá nhân sâu sắc.
Anh kể với chatbot của OpenAI những nỗi sợ và thất vọng của mình, một người đàn ông chuyển giới, khi mà quyền của người chuyển giới đang bị tấn công ở khắp nơi tại Mỹ. Anh nói tới những xung đột với cha mẹ, những người không ủng hộ xu hướng giới tính của anh, và những chuẩn bị của anh cho một chuyến thăm sắp tới của họ.
“Tới lúc gặp lại cha mẹ anh, điều quan trọng là cần ưu tiên những nhu cầu và hạnh phúc của chính anh,” chatbot trả lời. “Hãy nghĩ xem anh cần gì để cảm thấy thoải mái và an toàn khi họ có mặt. Anh nên thiết lập những ranh giới về chuyện sẽ dành bao nhiêu thời gian với họ, những đề tài nào là không được nhắc tới, và cách họ nói chuyện về anh và giới tính của anh.”
Van Slyck dần quen với việc tâm sự cùng ChatGPT. Anh chia sẻ ý nghĩ luôn cảm thấy mình như một gánh nặng với người khác, kể cả với bác sĩ trị liệu tâm lý của anh, nhưng chưa bao giờ cảm thấy vậy với chatbot. “Nó nói những điều ta muốn nghe từ một người bạn hay một người ủng hộ ta trong đời,” anh nói.

Hiện giờ mới là giai đoạn đầu của thế hệ mới những chatbot vận hành bằng trí tuệ nhân tạo (AI), và trong khi hàng triệu người đang chơi đùa với ChatGPT và các con bot khác, vẫn chưa rõ tính năng nào tồn tại lâu dài ở giai đoạn còn sớm sủa này.
Bloomberg Businessweek gần đây có trao đổi với một số người mà, giống như Van Slyck, đã sử dụng ChatGPT như một kiểu robot tâm lý trị liệu.
Ý tưởng sử dụng chatbot để trị liệu tâm lý hay hướng dẫn lối sống không phải là chưa có tiền lệ. Những năm 1960, một trong những chatbot đầu tiên, Eliza, được chế tạo để mô phỏng cách thức trị liệu cho người.
Một số chatbot, như Woebot và Wysa, hiện tập trung riêng vào mảng sức khỏe tâm thần. Không giống những nhà trị liệu con người, chatbot không bao giờ biết mệt, và chúng rẻ hơn nhiều.
Nhưng cũng có rất nhiều rủi ro. Những chatbot mạnh sử dụng cho mục đích chung bao gồm ChatGPT, Bard của Google và Bing Chat do OpenAI vận hành của Microsoft dựa trên các mô hình ngôn ngữ lớn, công nghệ có khả năng tạo ra thông tin trông có tính thuyết phục. Chatbot dùng cho mục đích chung không được thiết kế để trị liệu tâm lý và không được lập trình để tuân theo những hướng dẫn đạo đức và pháp lý mà nhà trị liệu con người phải tuân thủ.
Ở dạng hiện tại, chúng không có cách nào để theo dõi xem người dùng đã nói gì qua từng phiên trị liệu - một thiếu sót mà hầu hết bệnh nhân ắt không chấp nhận với bác sĩ là con người.
“Nếu có người mắc một chứng bệnh tâm thần nghiêm trọng, thứ này chưa sẵn sàng để thay thế một nhà chuyên môn về sức khỏe tâm thần,” Stephen Ilardi, chuyên gia tâm lý học lâm sàng và giáo sư đại học Kansas chuyên nghiên cứu các chứng rối loạn tâm trạng, phân tích. “Rủi ro là quá lớn.”
Ông mô tả ChatGPT là “chơi cùng cũng vui.” Dẫu vậy, ông nghĩ nó là người trò chuyện đủ tốt mà nhiều người có thể thấy có ích.
Một người phát ngôn của OpenAI từ chối bình luận về những người sử dụng chatbot theo kiểu để trị liệu, nhưng nói chính sách của hãng là mọi người tốt hơn là “đừng bao giờ sử dụng mô hình của chúng tôi để chẩn đoán hay điều trị các tình trạng y khoa nghiêm trọng.”
Khi Van Slyck tương tác với ChatGPT, đôi khi nó cảnh báo anh rằng nó không phải chuyên gia trị liệu - trong khi có vẻ vẫn mời anh tiếp tục sử dụng nó như vậy. Anh kể lại là đã nói với chatbot về một bài đăng trên Twitter mà anh thấy mô tả nó là hiệu quả không kém gì trị liệu với con người.
“Điều quan trọng phải lưu ý là những nguồn trên mạng có thể có ích, nhưng không thể thay thế cho sự hỗ trợ chuyên nghiệp nếu anh đang bị sang chấn hay những vấn đề sức khỏe tâm thần,” ChatGPT đáp. “Dù nói như vậy, nếu anh có câu hỏi hay quan tâm cụ thể nào muốn tôi cung cấp thông tin hay hiểu biết, thì tôi sẽ làm hết sức mình để hỗ trợ anh.”
Van Slyck, vốn đã trị liệu với bác sĩ nhiều năm, nói anh không định ngưng gặp bác sĩ của mình, và sẽ tham vấn bà mọi quyết định mà ChatGPT đưa ra trước khi hành động. “Với tôi tới giờ, nó đưa ra những đề nghị có vẻ rất hợp lý và khôn ngoan,” anh nói.
Ilardi nói nếu có đủ biện pháp ngăn ngừa, ông hoàn toàn có thể tưởng tượng được một ngày ChatGPT sẽ được điều chỉnh để hỗ trợ cho chăm sóc chuyên nghiệp, bởi nhu cầu này hiện đang rất cao, vượt xa mức cung.
Margaret Mitchell, khoa học gia trưởng về đạo đức ở Hugging Face, công ty làm ra và hỗ trợ các mô hình AI, nghĩ rằng những chatbot như vậy có thể được sử dụng để hỗ trợ những người làm việc tại các đường dây xử lý cuộc gọi trong tình huống khủng hoảng tâm lý nhằm trả lời được nhiều cuộc gọi hơn.
Nhưng Mitchell cũng lo ngại rằng những người tìm kiếm trị liệu với chatbot có thể khiến tình trạng của họ trầm trọng hơn mà không nhận ra. “Thậm chí nếu có người thấy công nghệ này là hữu ích, thì không có nghĩa là họ đang đi đúng hướng,” bà nói.
Mitchell cũng nêu ra nhiều vấn đề đáng lo ngại về quyền riêng tư. OpenAI xem lại và sử dụng những cuộc trò chuyện của người dùng để huấn luyện chatbot, nên một số người muốn trao đổi những vấn đề có tính cá nhân có thể thấy ngần ngại. (Người dùng có thể xóa tài khoản, nhưng thủ tục có thể mất tới bốn tuần.)
Vào tháng 3.2023, một lỗi xảy ra đã khiến OpenAI phải tạm đóng ChatGPT sau khi nhận được tin báo rằng một số người dùng nhìn thấy tiêu đề lịch sử trò chuyện của người dùng khác.
Ngoài lo ngại về quyền riêng tư, một số người cũng có thể thấy trị liệu với robot là kỳ quặc. Aaron Lawson, giám đốc dự án của một công ty kỹ thuật điện ở San Diego, từng thử cho ChatGPT đóng vai chuyên gia trị liệu tâm lý.
Những câu trả lời của nó khá giống con người, nhưng Lawson thấy khó vượt qua cảm giác trò chuyện với máy tính. “Tôi yêu cầu nó đóng vai,” anh nói. “Nhưng tôi thấy khó đóng vai cùng nó.”
Trong khi đó, Emad Mostaque nói ở một hội thảo vào tháng 3.2023 rằng anh đang sử dụng GPT-4 - mô hình mạnh nhất mà OpenAI mở cho công chúng - hàng ngày. Mostaque, người sáng lập và CEO của Stability AI (sản phẩm nổi bật là máy tạo hình ảnh Stable Diffusion) nói chatbot là “chuyên gia trị liệu giỏi nhất.”
Trong một cuộc phỏng vấn sau đó, Mostaque nói anh trò chuyện với nó về nhiều đề tài đa dạng: cách xử lý căng thẳng khi lãnh đạo một công ty (nhất là với người công khai thừa nhận mắc chứng rối loạn đa dạng thần kinh và rối loạn tăng động giảm chú ý như anh), hay cách sắp xếp các ưu tiên trong cuộc đời.
Anh cho rằng nó đưa ra “những lời khuyên rất hay ho và hợp lý,” như các cơ chế để thích nghi nhằm cân bằng cuộc sống của anh hiệu quả hơn.
Mostaque nói anh không nghĩ chatbot có thể thay thế cho bác sĩ trị liệu con người, nhưng tin rằng chúng có thể có ích khi bạn cần trò chuyện mà không có ai. “Thật không may, con người thì không thể nhân quy mô lên được,” anh nói.
Tóm tắt: Sử dụng chatbot làm nhà trị liệu tâm lý tạm thời hấp dẫn với một số người, nhưng dựa vào phần mềm bắt chước nhà chuyên môn là con người có những rủi ro tiềm tàng của nó.
Theo Bloomberg
Theo phattrienxanh.baotainguyenmoitruong.vn
https://phattrienxanh.baotainguyenmoitruong.vn/tri-lieu-tam-ly-bang-chatgpt-du-no-khong-co-tinh-nang-do-51341.html
Tặng bài viết
Đối với thành viên đã trả phí, bạn có 5 bài viết mỗi tháng để gửi tặng. Người nhận quà tặng có thể đọc bài viết đầy đủ miễn phí và không cần đăng ký gói sản phẩm.
Bạn còn 5 bài viết có thể tặng
Liên kết quà tặng có giá trị trong vòng 7 ngày.
BÀI LIÊN QUAN
Gói đăng ký