論文の概要: Mitigating Harmful Erraticism in LLMs Through Dialectical Behavior Therapy Based De-Escalation Strategies
- arxiv url: http://arxiv.org/abs/2510.15889v1
- Date: Sat, 06 Sep 2025 11:20:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.075125
- Title: Mitigating Harmful Erraticism in LLMs Through Dialectical Behavior Therapy Based De-Escalation Strategies
- Title(参考訳): 弁証的行動療法によるLLMの有害な弾力性軽減
- Authors: Pooja Rangarajan, Jacob Boyle,
- Abstract要約: 本稿では、人間の心理的原理、特に治療的モダリティに根ざした枠組みが、より堅牢で持続可能なソリューションを提供することができると仮定する。
人間の脳を模倣するAIのシミュレーションニューラルネットワークに類似して、弁証行動療法(DBT)の原則を適用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The escalating demand for personalized AI chatbot interactions, capable of dynamically adapting to user emotional states and real-time requests, has highlighted critical limitations in current development paradigms. Existing methodologies, which rely on baseline programming, custom personalities, and manual response adjustments, often prove difficult to maintain and are susceptible to errors such as hallucinations, erratic outputs, and software bugs. This paper hypothesizes that a framework rooted in human psychological principles, specifically therapeutic modalities, can provide a more robust and sustainable solution than purely technical interventions. Drawing an analogy to the simulated neural networks of AI mirroring the human brain, we propose the application of Dialectical Behavior Therapy (DBT) principles to regulate chatbot responses to diverse user inputs. This research investigates the impact of a DBT-based framework on AI chatbot performance, aiming to ascertain its efficacy in yielding more reliable, safe, and accurate responses, while mitigating the occurrence of hallucinations, erratic behaviors, and other systemic issues.
- Abstract(参考訳): ユーザ感情状態とリアルタイム要求に動的に適応できるパーソナライズされたAIチャットボットインタラクションに対する需要の増大は、現在の開発パラダイムにおける重要な制限を強調している。
既存の方法論は、ベースラインプログラミング、カスタムパーソナリティ、手動の応答調整に依存しており、保守が困難であることがしばしば証明され、幻覚、不規則なアウトプット、ソフトウェアバグなどのエラーの影響を受けやすい。
本稿では、人間の心理的原則、特に治療的モダリティに根ざした枠組みが、純粋に技術的な介入よりも堅牢で持続的な解決策を提供できると仮定する。
人間の脳を模倣するAIのシミュレーションニューラルネットワークに類似して、様々なユーザ入力に対するチャットボット応答を制御するために、弁証的行動療法(DBT)の原則を適用することを提案する。
本研究は,DBTベースのフレームワークがAIチャットボットのパフォーマンスに及ぼす影響について検討し,より信頼性が高く,安全で,正確な応答を得るとともに,幻覚,不規則な行動,その他のシステム的問題の発生を緩和することを目的とした。
関連論文リスト
- MindEval: Benchmarking Language Models on Multi-turn Mental Health Support [10.524387723320432]
MindEvalは、現実的でマルチターンのメンタルヘルスセラピー会話において、言語モデルを自動的に評価するためのフレームワークである。
シミュレーションされた患者が生成したテキストに対する現実性を定量的に検証し、自動判断と人的判断との間に強い相関関係を示す。
われわれは12の最先端のLCMを評価し、AI固有のコミュニケーションパターンに特に弱点がある平均6点中4点以下で、すべてのモデルが苦戦していることを示す。
論文 参考訳(メタデータ) (2025-11-23T15:19:29Z) - Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [72.36715571932696]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - Beyond Empathy: Integrating Diagnostic and Therapeutic Reasoning with Large Language Models for Mental Health Counseling [50.83055329849865]
PsyLLMは、メンタルヘルスカウンセリングの診断と治療的推論を統合するために設計された大きな言語モデルである。
Redditから現実世界のメンタルヘルス投稿を処理し、マルチターン対話構造を生成する。
実験の結果,PsyLLMは最先端のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-21T16:24:49Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Habit Coach: Customising RAG-based chatbots to support behavior change [0.6184871136700835]
Habit Coachは、パーソナライズされたインタラクションを通じて、ユーザの習慣の変化をサポートするように設計されている。
本研究では,言語モデルを再学習することなく,行動のパーソナライズを可能にするRAG(Retrieval-Augmented Generation)システムを開発した。
開発プロセスにおける重要な課題は、宣言的知識を効果的な相互作用行動に変換することの難しさだった。
論文 参考訳(メタデータ) (2024-11-28T15:53:27Z) - Chain-of-Interaction: Enhancing Large Language Models for Psychiatric Behavior Understanding by Dyadic Contexts [4.403408362362806]
本稿では,対話型対話による精神科的意思決定支援のための大規模言語モデルを文脈化するための,対話型連鎖促進手法を提案する。
このアプローチにより、大規模言語モデルでは、患者の行動コーディングのためのコーディングスキーム、患者の状態、およびドメイン知識を活用することができる。
論文 参考訳(メタデータ) (2024-03-20T17:47:49Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Pose-based Body Language Recognition for Emotion and Psychiatric Symptom
Interpretation [75.3147962600095]
通常のRGBビデオから始まるボディーランゲージに基づく感情認識のための自動フレームワークを提案する。
心理学者との連携により,精神症状予測の枠組みを拡張した。
提案されたフレームワークの特定のアプリケーションドメインは限られた量のデータしか供給しないため、フレームワークは小さなトレーニングセットで動作するように設計されている。
論文 参考訳(メタデータ) (2020-10-30T18:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。