論文の概要: TherapyProbe: Generating Design Knowledge for Relational Safety in Mental Health Chatbots Through Adversarial Simulation
- arxiv url: http://arxiv.org/abs/2602.22775v1
- Date: Thu, 26 Feb 2026 09:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.612546
- Title: TherapyProbe: Generating Design Knowledge for Relational Safety in Mental Health Chatbots Through Adversarial Simulation
- Title(参考訳): 精神保健チャットボットの設計知識の創出 : 対人シミュレーションによる検討
- Authors: Joydeep Chandra, Satyam Kumar Navneet, Yong Zhang,
- Abstract要約: 本稿では,実用的な設計知識を生成するデザインプローブ手法であるHysonProbeを紹介する。
本研究は,(1)APIコストを必要としない複製可能な方法論,(2)臨床に根ざした障害分類,(3)開発者,臨床医,政策立案者に対する設計上の意味について考察する。
- 参考スコア(独自算出の注目度): 6.821769033209393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As mental health chatbots proliferate to address the global treatment gap, a critical question emerges: How do we design for relational safety the quality of interaction patterns that unfold across conversations rather than the correctness of individual responses? Current safety evaluations assess single-turn crisis responses, missing the therapeutic dynamics that determine whether chatbots help or harm over time. We introduce TherapyProbe, a design probe methodology that generates actionable design knowledge by systematically exploring chatbot conversation trajectories through adversarial multi-agent simulation. Using open-source models, TherapyProbe surfaces relational safety failures interaction patterns like "validation spirals" where chatbots progressively reinforce hopelessness, or "empathy fatigue" where responses become mechanical over turns. Our contribution is translating these failures into a Safety Pattern Library of 23 failure archetypes with corresponding design recommendations. We contribute: (1) a replicable methodology requiring no API costs, (2) a clinically-grounded failure taxonomy, and (3) design implications for developers, clinicians, and policymakers.
- Abstract(参考訳): メンタルヘルスチャットボットがグローバルな治療ギャップに対処するために増加するにつれて、重要な疑問が浮かび上がってくる。 個人の反応の正しさではなく、会話全体に広がる相互作用パターンの質を、リレーショナルセーフティのためにどのように設計するか?
現状の安全性評価では、チャットボットが時間とともに役に立つかどうかを判断する治療的ダイナミクスが欠如している。
対戦型マルチエージェントシミュレーションにより,チャットボットの対話軌跡を体系的に探索し,実用的な設計知識を生成する設計手法であるHysonProbeを紹介する。
TherapyProbeはオープンソースのモデルを用いて、チャットボットが徐々に希望の無力を補強する"検証スパイラル"や、応答が機械的オーバーターンとなる"共感疲労"のような、関係性安全障害の相互作用パターンを表面化する。
当社のコントリビューションは、これらの障害を23の障害アーチタイプからなるセーフティパターンライブラリに、対応する設計勧告を翻訳することにあります。
本研究は,(1)APIコストを必要としない複製可能な方法論,(2)臨床に根ざした障害分類,(3)開発者,臨床医,政策立案者に対する設計上の意味について考察する。
関連論文リスト
- Do You Understand How I Feel?: Towards Verified Empathy in Therapy Chatbots [2.0452773268886126]
本稿では,自然言語処理と形式検証を統合し,共感型セラピーチャットボットを実現するフレームワークを構想する。
Transformerベースのモデルは対話機能を抽出し、ダイアディック療法セッションのハイブリッドオートマトンモデルに変換する。
共感関連プロパティは、統計モデルチェックを通じて検証することができる。
予備的な結果から, 形式的モデルは良好な忠実度で治療のダイナミクスを捉え, アドホック戦略が共感要求を満たす確率を向上させることが示唆された。
論文 参考訳(メタデータ) (2026-01-13T12:08:58Z) - "Even GPT Can Reject Me": Conceptualizing Abrupt Refusal Secondary Harm (ARSH) and Reimagining Psychological AI Safety with Compassionate Completion Standard (CCS) [10.377213441117618]
我々は、突然の拒絶は、関係性の連続性に対する認識を破裂させ、拒絶や恥の感情を誘発し、将来的な支援を阻止する可能性があると論じている。
本稿では,リレーショナルコヒーレンスを保ちながら安全性の制約を維持する設計仮説であるコンパシオント・コンプリート・スタンダードを提案する。
この視点は、タイムリーな概念的枠組みに寄与し、テスト可能な設計仮説を明確にし、人間のAIインタラクションにおける心理的安全性を改善するための協調的な研究課題を概説する。
論文 参考訳(メタデータ) (2025-12-21T15:31:15Z) - Mitigating Harmful Erraticism in LLMs Through Dialectical Behavior Therapy Based De-Escalation Strategies [0.0]
本稿では、人間の心理的原理、特に治療的モダリティに根ざした枠組みが、より堅牢で持続可能なソリューションを提供することができると仮定する。
人間の脳を模倣するAIのシミュレーションニューラルネットワークに類似して、弁証行動療法(DBT)の原則を適用することを提案する。
論文 参考訳(メタデータ) (2025-09-06T11:20:15Z) - Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [72.36715571932696]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - Do We Talk to Robots Like Therapists, and Do They Respond Accordingly? Language Alignment in AI Emotional Support [6.987852837732702]
本研究は,ヒトとヒトのセラピーセッションにおいて,ロボットと共有される関心が,ヒトとヒトのセラピーセッションで共有される関心事と一致しているかを検討する。
我々は,ユーザとプロのセラピストとのインタラクションと,ソーシャルロボットとの支援的な会話を含む2つのデータセットを分析した。
その結果、ロボットの会話開示の90.88%は、人間の治療データセットからクラスタにマッピングできることがわかった。
論文 参考訳(メタデータ) (2025-06-19T17:20:30Z) - Using In-Context Learning to Improve Dialogue Safety [45.303005593685036]
チャットボットからの応答のバイアスや毒性を低減するための検索手法について検討する。
コンテキスト内学習を使用して、モデルをより安全な世代に向けて操る。
本手法は,トレーニングを必要とせず,強いベースラインと競合する。
論文 参考訳(メタデータ) (2023-02-02T04:46:03Z) - An Evaluation of Generative Pre-Training Model-based Therapy Chatbot for
Caregivers [5.2116528363639985]
OpenAI GPTモデルのような生成ベースのアプローチは、治療コンテキストにおけるよりダイナミックな会話を可能にする。
我々は, GPT-2モデルを用いてチャットボットを構築し, 認知症患者の家族介護者と問題解決療法を行うセラピストの間で306回の治療セッションの転写を微調整した。
その結果、微調整されたモデルでは、事前訓練されたモデルよりも単語以外の出力が生成されることがわかった。
論文 参考訳(メタデータ) (2021-07-28T01:01:08Z) - Enabling AI and Robotic Coaches for Physical Rehabilitation Therapy:
Iterative Design and Evaluation with Therapists and Post-Stroke Survivors [66.07833535962762]
人工知能(AI)とロボットコーチは、社会的相互作用を通じてリハビリテーション運動における患者の関与を改善することを約束する。
これまでの研究は、AIやロボットコーチの運動を自動的に監視する可能性を探ったが、デプロイは依然として難しい課題だ。
我々は,AIとロボットコーチが患者の運動をどのように操作し,指導するかに関する詳細な設計仕様を提示する。
論文 参考訳(メタデータ) (2021-06-15T22:06:39Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。