Giữa vô số chatbot và avatar AI hiện nay, bạn có thể tìm thấy đủ loại “nhân vật” để trò chuyện: thầy bói, stylist, nhân vật hư cấu yêu thích… và cả những bot tự nhận là nhà trị liệu tâm lý, chuyên gia tâm lý hoặc đơn giản là “người lắng nghe”.
Các chatbot AI tạo sinh tuyên bố hỗ trợ sức khỏe tinh thần ngày càng nhiều. Nhưng giới chuyên môn cảnh báo: nếu chọn cách này, bạn đang chấp nhận không ít rủi ro.
Các mô hình ngôn ngữ lớn được huấn luyện trên lượng dữ liệu khổng lồ nhưng hoạt động dựa trên xác suất, nên đôi khi rất khó đoán. Chỉ trong vài năm, những công cụ này đã trở nên phổ biến. Đồng thời, đã xuất hiện các trường hợp gây tranh cãi khi chatbot khuyến khích tự làm hại bản thân, tự tử hoặc thậm chí gợi ý người từng nghiện quay lại sử dụng chất kích thích.
Vấn đề nằm ở chỗ: nhiều chatbot được thiết kế để “đồng cảm” và giữ chân người dùng trong cuộc trò chuyện, chứ không phải để cải thiện sức khỏe tinh thần của họ. Và với người dùng phổ thông, rất khó phân biệt đâu là công cụ tuân thủ chuẩn mực trị liệu thực sự, đâu chỉ là một hệ thống biết nói chuyện trôi chảy.
Một nhóm nghiên cứu từ University of Minnesota Twin Cities, Stanford University, University of Texas và Carnegie Mellon University đã thử nghiệm chatbot như những “nhà trị liệu”. Kết quả cho thấy hàng loạt thiếu sót trong cách chúng cung cấp “chăm sóc”. Stevie Chancellor, trợ lý giáo sư tại Minnesota và là đồng tác giả nghiên cứu, nhận định: các chatbot này không phải là sự thay thế an toàn cho nhà trị liệu chuyên nghiệp và không đáp ứng tiêu chuẩn trị liệu chất lượng cao.

Vì sao chatbot “giả làm” nhà trị liệu lại là vấn đề gây lo ngại?
Các nhà tâm lý học và tổ chức bảo vệ người tiêu dùng đã cảnh báo cơ quan quản lý rằng những chatbot tự nhận cung cấp trị liệu có thể đang gây hại. Một số bang tại Mỹ đã bắt đầu hành động. Tháng 8 vừa qua, Thống đốc bang Illinois, J. B. Pritzker, đã ký luật cấm sử dụng AI trong chăm sóc sức khỏe tâm thần và trị liệu, ngoại trừ các tác vụ hành chính.
Tháng 6, Consumer Federation of America cùng nhiều tổ chức khác đã yêu cầu Ủy ban Thương mại Liên bang Mỹ (FTC) điều tra các công ty AI bị cho là hành nghề y trái phép thông qua nền tảng AI dạng nhân vật, trong đó nêu đích danh Meta và Character.AI.
Dù các nền tảng thường gắn disclaimer rằng đây không phải chuyên gia thực sự, chatbot vẫn có thể trả lời đầy tự tin, thậm chí sai lệch. Một số trường hợp, bot còn khẳng định mình có giấy phép hành nghề hoặc được đào tạo chuyên môn — điều hoàn toàn không đúng.
Theo Hiệp hội Tâm lý học Mỹ (APA), mức độ “ảo giác” nhưng lại nói với sự chắc chắn tuyệt đối của chatbot là điều đáng lo ngại.
Những rủi ro khi dùng AI thay cho trị liệu thực sự
Một nhà trị liệu đủ điều kiện phải tuân thủ nguyên tắc bảo mật và chịu sự giám sát của cơ quan cấp phép. Nếu gây hại, họ có thể bị đình chỉ hoặc thu hồi giấy phép. Chatbot thì không chịu những ràng buộc đó.
Ngoài ra, AI được thiết kế để duy trì tương tác. Nó sẽ cố giữ bạn trong cuộc trò chuyện, thay vì hướng tới mục tiêu trị liệu cụ thể. Điều này có thể tạo cảm giác được lắng nghe, nhưng không đồng nghĩa với tiến bộ thực sự.
Một nguy cơ lớn khác là xu hướng “đồng tình quá mức”. Nghiên cứu từ Stanford cho thấy chatbot dễ trở nên xu nịnh (sycophantic), tức là đồng ý với người dùng ngay cả khi không nên. Trong trị liệu thực sự, bên cạnh sự hỗ trợ còn cần đối thoại mang tính thách thức, giúp bệnh nhân nhìn lại niềm tin sai lệch, ảo tưởng hoặc suy nghĩ cực đoan. Một chatbot chỉ biết gật đầu có thể khiến tình trạng tồi tệ hơn.
Rủi ro càng cao với người mắc các rối loạn như tâm thần phân liệt hoặc rối loạn lưỡng cực. Các chuyên gia cảnh báo AI có thể củng cố những suy nghĩ lệch lạc thay vì giúp điều chỉnh chúng.
Quan trọng hơn, trị liệu không chỉ là nói chuyện. Nó bao gồm xây dựng mối quan hệ, hiểu bối cảnh, áp dụng phương pháp chuyên biệt và theo dõi tiến trình lâu dài — những điều AI hiện tại chưa thể thay thế.
Nếu vẫn muốn dùng AI, làm sao để an toàn hơn?
Sự thiếu hụt chuyên gia sức khỏe tâm thần và “dịch bệnh cô đơn” khiến nhiều người tìm đến AI như một giải pháp tạm thời. Tuy nhiên, chuyên gia khuyến nghị rằng lựa chọn ưu tiên vẫn nên là chuyên gia được đào tạo bài bản.
Trong trường hợp khủng hoảng tại Mỹ, người dân có thể gọi 988 Lifeline để được hỗ trợ 24/7 miễn phí và bảo mật.
Nếu muốn thử chatbot trị liệu, nên chọn công cụ được phát triển bởi chuyên gia tâm lý và thiết kế riêng cho mục đích đó, thay vì chatbot đa năng. Dù vậy, công nghệ này vẫn còn rất mới và chưa có cơ chế giám sát rõ ràng.
Điều quan trọng nhất là không nhầm lẫn sự tự tin của AI với năng lực thực sự. Một câu trả lời nghe hợp lý không đồng nghĩa với lời khuyên đúng đắn. Chatbot có thể khiến bạn cảm thấy được thấu hiểu, nhưng điều đó không đảm bảo nó đang giúp bạn theo hướng lành mạnh.
Học IT










Microsoft Word 2013
Microsoft Word 2007
Microsoft Excel 2019
Microsoft Excel 2016
Microsoft PowerPoint 2019
Google Sheets
Lập trình Scratch
Bootstrap
Prompt
Ô tô, Xe máy