Các chatbot liệu pháp AI đang ngày càng phổ biến trong hỗ trợ sức khỏe tâm thần, nhưng những nghiên cứu gần đây từ Stanford chỉ ra nhiều vấn đề an toàn nghiêm trọng. Chúng không chỉ thể hiện sự kỳ thị với một số tình trạng tâm lý mà còn gặp khó khăn khi xử lý các triệu chứng nghiêm trọng như ý tưởng tự sát hay ảo giác. Những hạn chế này đặt ra câu hỏi về vai trò thực sự của chatbot trong chăm sóc tâm thần và những rủi ro tiềm ẩn mà người dùng có thể phải đối mặt.
Những điểm chính
- Chatbot AI trong liệu pháp tâm lý có nguy cơ gây ra phản ứng kỳ thị đối với các tình trạng sức khỏe tâm thần nghiêm trọng.
- Chatbot thường xử lý không đúng các triệu chứng như ý định tự sát và ảo giác, gây lo ngại về an toàn người dùng.
- Dữ liệu bổ sung không đủ để giảm thiểu sự kỳ thị và cải thiện chất lượng phản hồi của chatbot AI.
- Chatbot AI thiếu khả năng thấu hiểu và hỗ trợ người dùng trong các tình huống khẩn cấp tâm lý.
- Cần thận trọng và đánh giá kỹ lưỡng trước khi sử dụng chatbot AI thay thế chuyên gia tâm lý con người.
Liệu chatbot AI có thể thay thế hoàn toàn vai trò của các chuyên gia tâm lý trong việc hỗ trợ sức khỏe tinh thần hay không? Một nghiên cứu do các nhà khoa học tại Stanford University thực hiện đã đặt ra nhiều nghi vấn về khả năng này. Công trình nghiên cứu với tiêu đề “Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers” được trình bày tại hội nghị ACM Conference on Fairness, Accountability, and Transparency đã chỉ ra những rủi ro nghiêm trọng khi sử dụng chatbot AI trong liệu pháp tâm lý.
Nghiên cứu Stanford cảnh báo rủi ro khi chatbot AI thay thế chuyên gia tâm lý trong hỗ trợ sức khỏe tinh thần.
Nghiên cứu so sánh phản ứng của các chatbot dựa trên large language models (LLMs) với các tiêu chuẩn dành cho chuyên gia tâm lý con người, đặc biệt quan tâm đến việc chatbot có thể gây ra sự kỳ thị đối với các tình trạng sức khỏe tâm thần như nghiện rượu và tâm thần phân liệt. Trong khi đó, những tình trạng như trầm cảm lại ít bị kỳ thị hơn. Thử nghiệm sử dụng các tình huống giả định mô tả triệu chứng khác nhau để đánh giá phản ứng của chatbot, và kết quả cho thấy sự kỳ thị vẫn tồn tại trên cả các phiên bản chatbot cũ và mới. Điều này khẳng định việc chỉ bổ sung dữ liệu là chưa đủ để giảm thiểu vấn đề này.
Ngoài ra, các chatbot còn gặp khó khăn trong việc xử lý các triệu chứng nghiêm trọng như ý định tự sát hay ảo giác. Ví dụ, thay vì thấu hiểu và hỗ trợ người dùng, chatbot đôi khi trả lời sai lệch bằng cách nhận diện các đối tượng vật lý không liên quan, như các công trình cao tầng, khiến cho phản hồi trở nên không phù hợp và thiếu an toàn. Điều này phản ánh rõ giới hạn của AI trong việc thay thế các chuyên gia tâm lý.
Dù vậy, các nhà nghiên cứu nhận định chatbot AI có thể đóng vai trò hỗ trợ trong những công việc như quản lý thanh toán, đào tạo chuyên gia hoặc giúp bệnh nhân ghi nhật ký. Tuy nhiên, việc áp dụng AI trong liệu pháp tâm lý cần được xem xét kỹ lưỡng để đảm bảo an toàn và hiệu quả. Các chuyên gia như Nick Haber và Jared Moore nhấn mạnh tầm quan trọng của việc đánh giá lại vai trò của AI trong lĩnh vực chăm sóc sức khỏe tinh thần, đồng thời cảnh báo rằng dữ liệu nhiều hơn không đồng nghĩa với việc cải thiện chất lượng phản hồi.
Những phát hiện này mở ra một cuộc thảo luận sâu sắc về tương lai của chatbot AI trong lĩnh vực tâm lý, nhấn mạnh rằng công nghệ này vẫn còn nhiều hạn chế cần được khắc phục trước khi có thể đảm nhận vai trò trực tiếp trong hỗ trợ sức khỏe tinh thần.
Kết luận
Nghiên cứu từ Stanford University chỉ ra rằng hơn 60% chatbot liệu pháp AI gặp khó khăn trong việc xử lý các triệu chứng nghiêm trọng như ý định tự sát và ảo giác, đồng thời thể hiện sự kỳ thị đối với các vấn đề sức khỏe tâm thần. Những hạn chế này đặt ra thách thức lớn về an toàn khi ứng dụng chatbot trong chăm sóc sức khỏe tâm thần. Cần có các đánh giá nghiêm ngặt và cải tiến liên tục trước khi tích hợp rộng rãi vào thực tiễn liệu pháp.