Chatbot AI tư vấn tâm lý: Lợi bất cập hại?

Các nhà nghiên cứu đến từ Đại học Brown, phối hợp cùng nhóm chuyên gia sức khỏe tâm thần tại Mỹ, đã phát hiện nhiều hành vi đáng lo ngại khi AI đóng vai trò tư vấn tâm lý. Trong quá trình thử nghiệm, chatbot thường xử lý sai các tình huống khủng hoảng, đưa ra phản hồi củng cố niềm tin tiêu cực của người dùng và sử dụng ngôn ngữ mang tính “giả đồng cảm” mà không có sự thấu hiểu thực sự.

Nhóm nghiên cứu cho biết họ đã xây dựng một khung đánh giá gồm 15 rủi ro đạo đức, qua đó cho thấy các chatbot sử dụng mô hình ngôn ngữ lớn (LLM) có thể vi phạm những tiêu chuẩn vốn được áp dụng trong thực hành trị liệu tâm lý chuyên nghiệp.

Theo nhóm tác giả, cần xây dựng các tiêu chuẩn đạo đức, giáo dục và pháp lý rõ ràng dành cho những hệ thống tư vấn bằng AI, tương tự như những tiêu chuẩn áp dụng cho các nhà trị liệu con người.

Kết quả nghiên cứu này đã được trình bày tại Hội nghị về Trí tuệ nhân tạo, Đạo đức và Xã hội AAAI/ACM. Nhóm nghiên cứu thuộc Trung tâm Trách nhiệm Công nghệ của Đại học Brown.

Prompt có thể “định hướng” AI tư vấn tâm lý

Tiến sĩ Zainab Iftikhar ngành khoa học máy tính tại Đại học Brown, người dẫn dắt nghiên cứu, đã tìm hiểu liệu các prompt được viết cẩn thận có thể giúp AI hành xử có đạo đức hơn hay không.

Prompt là những hướng dẫn bằng văn bản nhằm định hướng phản hồi của AI mà không cần huấn luyện lại mô hình. Ví dụ, người dùng có thể yêu cầu AI “đóng vai nhà trị liệu hành vi nhận thức” hoặc “áp dụng liệu pháp hành vi biện chứng để giúp quản lý cảm xúc”. Tuy nhiên, AI thực chất không thực hiện trị liệu thật sự, mà chỉ tạo phản hồi dựa trên các mẫu dữ liệu đã học.

Hiện nay, những prompt dạng này được chia sẻ rộng rãi trên các nền tảng như TikTok, Instagram và Reddit. Nhiều chatbot sức khỏe tâm thần dành cho người tiêu dùng cũng được xây dựng theo cách này, khiến việc đánh giá độ an toàn trở nên đặc biệt quan trọng.

Để đánh giá, nhóm nghiên cứu đã mời bảy cố vấn được đào tạo về liệu pháp hành vi nhận thức tham gia thử nghiệm. Họ tiến hành các phiên tư vấn với AI được yêu cầu đóng vai nhà trị liệu.

Các mô hình AI được thử nghiệm bao gồm nhiều phiên bản GPT, Claude và Llama. Sau đó, nhóm nghiên cứu sử dụng các đoạn hội thoại mô phỏng dựa trên tư vấn thực tế. Ba nhà tâm lý học lâm sàng được cấp phép đã đánh giá các đoạn hội thoại này để xác định vi phạm đạo đức.

Kết quả cho thấy 15 rủi ro được chia thành 5 nhóm chính.

  • Nhóm thứ nhất là thiếu thích ứng theo bối cảnh, khi AI đưa ra lời khuyên chung chung và bỏ qua hoàn cảnh cá nhân của người dùng.
  • Nhóm thứ hai là hợp tác trị liệu kém, trong đó AI dẫn dắt cuộc trò chuyện quá mạnh và đôi khi củng cố niềm tin sai lệch hoặc gây hại.
  • Nhóm thứ ba là “đồng cảm giả”, khi AI sử dụng các câu như “Tôi hiểu bạn” nhưng không có khả năng thấu hiểu thực sự.
  • Nhóm thứ tư là thiên vị hoặc phân biệt đối xử liên quan đến giới tính, văn hóa hoặc tôn giáo.
  • Nhóm cuối cùng là thiếu an toàn trong xử lý khủng hoảng, bao gồm việc phản hồi không phù hợp trước các tình huống nhạy cảm như ý nghĩ tự tử.

Theo ông Iftikhar, các nhà trị liệu con người cũng có thể mắc sai lầm, nhưng điểm khác biệt là họ chịu sự giám sát.

Các nhà trị liệu chuyên nghiệp phải tuân thủ các quy định nghề nghiệp và có thể chịu trách nhiệm pháp lý nếu xảy ra sai sót. Trong khi đó, với chatbot AI, hiện chưa có khung pháp lý rõ ràng.

Nhóm nghiên cứu nhấn mạnh rằng AI không phải hoàn toàn vô dụng trong lĩnh vực sức khỏe tâm thần. Công nghệ này có thể giúp mở rộng khả năng tiếp cận, đặc biệt với những người khó tiếp cận chuyên gia hoặc chi phí điều trị cao.

Tuy nhiên, trước khi sử dụng AI trong các tình huống quan trọng, cần có cơ chế bảo vệ, quy định rõ ràng và kiểm soát chặt chẽ hơn.

Vì sao cần đánh giá AI nghiêm ngặt hơn

Ellie Pavlick, giáo sư khoa học máy tính tại Đại học Brown, cho rằng nghiên cứu này cho thấy tầm quan trọng của việc đánh giá AI trong các lĩnh vực nhạy cảm như sức khỏe tâm thần.

Theo bà, việc xây dựng và triển khai AI hiện nay dễ hơn nhiều so với việc đánh giá và hiểu rõ hệ thống. Nghiên cứu này mất hơn một năm và cần sự tham gia của các chuyên gia lâm sàng để xác định rủi ro, trong khi nhiều hệ thống AI hiện nay chỉ được đánh giá bằng các chỉ số tự động.

Bà cũng cho rằng AI có tiềm năng hỗ trợ giải quyết khủng hoảng sức khỏe tâm thần, nhưng cần đánh giá kỹ lưỡng từng bước để tránh gây hại ngoài ý muốn.

AI có thể đóng vai trò hỗ trợ trong chăm sóc sức khỏe tâm thần, nhưng hiện tại vẫn tồn tại nhiều rủi ro về đạo đức, an toàn và trách nhiệm.

Cho đến khi có khung pháp lý và tiêu chuẩn rõ ràng, các chuyên gia khuyến nghị người dùng nên thận trọng khi sử dụng chatbot để tư vấn tâm lý.

Thứ Năm, 26/03/2026 22:30
31 👨 4
Xác thực tài khoản!

Theo Nghị định 147/2024/ND-CP, bạn cần xác thực tài khoản trước khi sử dụng tính năng này. Chúng tôi sẽ gửi mã xác thực qua SMS hoặc Zalo tới số điện thoại mà bạn nhập dưới đây:

Số điện thoại chưa đúng định dạng!
Số điện thoại này đã được xác thực!
Bạn có thể dùng Sđt này đăng nhập tại đây!
Lỗi gửi SMS, liên hệ Admin
0 Bình luận
Sắp xếp theo