
23/02/2025
【 AIは人間のセラピストに取って代わるか? 】
記事中では複数人の専門家の声を取り上げています。
どれも当たり障りない声でした。
ひょっとして、この記事自体もAIで書かれたものなのかもしれませんね。
この記事では触れられていませんが、「資格のあるセラピスト」とか言われる人も、その実力はピンキリです。
私は業界の人間として、実力の疑わしいセラピストの話も多く見聞きしましたし、それくらいならいっそAIの方が最低限の質を担保したセラピーを期待できるのではないかとさえ思ってしまいます。
いえ、実際はもっと複雑な問題が引き起こされるでしょう。
考えなければならない点が少なくとも3つはあると思います。
1つめは記事にもあるように、希死念慮や虐待など、深刻でデリケートな問題をAIセラピストはどう扱えるのか?
2つめは、ここではクライエントの悩みもAIの対応も一括りに扱われていますが、実際はAIセラピストが得意とする問題と、そうでない問題があるはずなのです。
今後の実践と研究の蓄積で、どんな問題ならAIの方が成績が良い、といった知見が整ってくるはずです。
3つめは、人間のセラピストによる、より悪質なサービス提供の可能性が高まることです。
AIセラピストは定型的で、大きくは外れないセラピーを提供するのでしょう。
それは今も、「AIの出力は内容が薄く、既視感のある文書になりやすい」といった声として表れています。
そうした〝薄味の一見正しい応答〟に満足できない、ディープなニーズを持ったクライエントに対して、より濃ゆい人間的な繋がりを提供することを売りとする人間のセラピストが出てくると思います。
今でも無資格のセラピストの中に、クライエントと一線を超えた関係を持つことを売りとする人がいるようですが、薄味では物足りないクライエントがこうしたセラピストに走るかもしれませんね。
結局は技術的にAIが人間を超えるかどうかよりも、お金を払うクライエントがどちらを求めるのかで決まってくることなので。
つまりは「AIセラピストは人間を超えるか?」という問題では済まずに、クライエントとなる人間側にセラピーに対する適切な理解を求めるような事態が起きるのではないかと思って見ています。
<AIには人目を気にせず「なんでも話せる」かもしれないが、専門家は人々が『セラピスト・ショッピング』に陥る危険性に注目している──>AI(人工知能)ツールのチャットGPTをセラピーに活用