論文の概要: Relational Mediators: LLM Chatbots as Boundary Objects in Psychotherapy
- arxiv url: http://arxiv.org/abs/2512.22462v1
- Date: Sat, 27 Dec 2025 04:35:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.065304
- Title: Relational Mediators: LLM Chatbots as Boundary Objects in Psychotherapy
- Title(参考訳): リレーショナルメディエーター:心理療法における境界対象としてのLLMチャットボット
- Authors: Jiatao Quan, Ziyue Li, Tian Qi Zhu, Yuxuan Li, Baoying Wang, Wanda Pratt, Nan Gao,
- Abstract要約: 施設の障壁の中で信頼を構築することの難しさ、負担クライアントがセラピストに辺境的なアイデンティティを教育すること、そして日々のセラピー全体にわたって真正な自己開示を維持することの難しさを識別する。
これらの課題に対処するには、基礎となる知識ギャップを積極的に仲介できるAIシステムが必要である、と我々は主張する。
- 参考スコア(独自算出の注目度): 15.882574882742704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) are embedded into mental health technologies, they are often framed either as tools assisting therapists or autonomous therapeutic systems. Such perspectives overlook their potential to mediate relational complexities in therapy, particularly for systemically marginalized clients. Drawing on in-depth interviews with 12 therapists and 12 marginalized clients in China, including LGBTQ+ individuals or those from other marginalized backgrounds, we identify enduring relational challenges: difficulties building trust amid institutional barriers, the burden clients carry in educating therapists about marginalized identities, and challenges sustaining authentic self-disclosure across therapy and daily life. We argue that addressing these challenges requires AI systems capable of actively mediating underlying knowledge gaps, power asymmetries, and contextual disconnects. To this end, we propose the Dynamic Boundary Mediation Framework, which reconceptualizes LLM-enhanced systems as adaptive boundary objects that shift mediating roles across therapeutic stages. The framework delineates three forms of mediation: Epistemic (reducing knowledge asymmetries), Relational (rebalancing power dynamics), and Contextual (bridging therapy-life discontinuities). This framework offers a pathway toward designing relationally accountable AI systems that center the lived realities of marginalized users and more effectively support therapeutic relationships.
- Abstract(参考訳): 大規模言語モデル(LLM)はメンタルヘルス技術に組み込まれているため、セラピストや自律的な治療システムを支援するツールとして用いられることが多い。
このような視点は、治療におけるリレーショナルな複雑さ、特にシステム的に疎外されたクライアントを媒介する可能性を見落としている。
中国における12人のセラピストと12人のセラピストと、LGBTQ+の個人や、その他の疎外化背景からのクライアントとの詳細なインタビューに基づき、我々は、永続的な関係上の課題、制度上の障壁の中で信頼を構築することの困難、過大化したアイデンティティについてセラピストを教育する責任のあるクライアント、そして治療と日々の生活における真正な自己開示の持続的な課題を識別した。
これらの課題に対処するには、基礎となる知識ギャップ、パワー対称性、コンテキストの切り離しを積極的に仲介できるAIシステムが必要である、と私たちは主張する。
そこで本稿では,LLMを拡張したシステムを適応境界オブジェクトとして再認識する動的境界メディエーションフレームワークを提案する。
この枠組みは、エピステミック(知識非対称性の低減)、リレーショナル(リバランシングパワーダイナミクス)、コンテキスト(治療と生活の不連続)の3つの形態を規定している。
このフレームワークは、リレーショナルに説明可能なAIシステムを設計するための経路を提供する。
関連論文リスト
- Roleplaying with Structure: Synthetic Therapist-Client Conversation Generation from Questionnaires [5.163738939075784]
構造化されたクライアントプロファイルと心理的アンケートに基づいて合成カウンセリング対話を生成するLLM駆動パイプラインを提案する。
我々のフレームワークであるSQPsychは、構造化された心理的入力をセラピスト・クライアントシミュレーションを通じて自然言語対話に変換する。
我々の研究は、メンタルヘルス支援のためのスケーラブルでデータセキュアで臨床的に情報提供されたAIを実現するための合成データの可能性を強調した。
論文 参考訳(メタデータ) (2025-10-29T10:55:52Z) - Embracing Trustworthy Brain-Agent Collaboration as Paradigm Extension for Intelligent Assistive Technologies [51.93721053301417]
本稿では,脳-コンピュータ・インタフェースから脳-エージェント・コラボレーションへのパラダイム拡張を視野に入れている。
我々は、受動的脳信号データプロセッサではなく、知的支援のためのアクティブで協調的なパートナーとして、リフレーミングエージェントを強調している。
論文 参考訳(メタデータ) (2025-10-25T00:25:45Z) - Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [72.36715571932696]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - Beyond Empathy: Integrating Diagnostic and Therapeutic Reasoning with Large Language Models for Mental Health Counseling [50.83055329849865]
PsyLLMは、メンタルヘルスカウンセリングの診断と治療的推論を統合するために設計された大きな言語モデルである。
Redditから現実世界のメンタルヘルス投稿を処理し、マルチターン対話構造を生成する。
実験の結果,PsyLLMは最先端のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-21T16:24:49Z) - A Survey of Large Language Models in Psychotherapy: Current Landscape and Future Directions [13.17064228097947]
大きな言語モデル(LLM)は、広いコンテキストとマルチターン推論を扱う能力のために、このギャップに対処する可能性がある。
本総説では, 精神療法を相互に連携した段階(評価, 診断, 治療)に分割し, LLMの進歩と課題を体系的に検討する。
論文 参考訳(メタデータ) (2025-02-16T12:18:40Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - From Conversation to Automation: Leveraging LLMs for Problem-Solving Therapy Analysis [6.700608883427542]
問題解決療法(PST)は、個人がストレスを管理し、個人の問題を解決するのに役立つ。
自動化を試みる前に、PSTの各セッションがどのように実行されるかを明確に理解することが重要である。
我々は、確立されたPSTコアストラテジーと新しいファシリテーティブストラテジーのセットを用いて、PSTアノテーションのための包括的なフレームワークを開発した。
論文 参考訳(メタデータ) (2025-01-10T16:54:20Z) - Chain-of-Interaction: Enhancing Large Language Models for Psychiatric Behavior Understanding by Dyadic Contexts [4.403408362362806]
本稿では,対話型対話による精神科的意思決定支援のための大規模言語モデルを文脈化するための,対話型連鎖促進手法を提案する。
このアプローチにより、大規模言語モデルでは、患者の行動コーディングのためのコーディングスキーム、患者の状態、およびドメイン知識を活用することができる。
論文 参考訳(メタデータ) (2024-03-20T17:47:49Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。