論文の概要: RubRIX: Rubric-Driven Risk Mitigation in Caregiver-AI Interactions
- arxiv url: http://arxiv.org/abs/2601.13235v1
- Date: Mon, 19 Jan 2026 17:10:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.985184
- Title: RubRIX: Rubric-Driven Risk Mitigation in Caregiver-AI Interactions
- Title(参考訳): RubRIX: キャリアとAIのインタラクションにおけるルーブリック駆動型リスク軽減
- Authors: Drishti Goel, Jeongah Lee, Qiuyue Joy Zhong, Violeta J. Rodriguez, Daniel S. Brown, Ravi Karkar, Dong Whi Yoo, Koustuv Saha,
- Abstract要約: 本稿では,AIによるサポート応答のリスクを評価するための理論駆動型臨床検証フレームワークであるRubRIXを紹介する。
RubRIXは、インタテンション、バイアス&スティグマ、インフォメーション不正確、不臨界確認、エピステマアロガンスという、経験的に派生した5つのリスクディメンションを運用している。
この研究は、高バーデンコンテキストのためのドメイン依存型ユーザ中心評価フレームワークを開発するための方法論的アプローチに寄与する。
- 参考スコア(独自算出の注目度): 15.539654835961294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Caregivers seeking AI-mediated support express complex needs -- information-seeking, emotional validation, and distress cues -- that warrant careful evaluation of response safety and appropriateness. Existing AI evaluation frameworks, primarily focused on general risks (toxicity, hallucinations, policy violations, etc), may not adequately capture the nuanced risks of LLM-responses in caregiving-contexts. We introduce RubRIX (Rubric-based Risk Index), a theory-driven, clinician-validated framework for evaluating risks in LLM caregiving responses. Grounded in the Elements of an Ethic of Care, RubRIX operationalizes five empirically-derived risk dimensions: Inattention, Bias & Stigma, Information Inaccuracy, Uncritical Affirmation, and Epistemic Arrogance. We evaluate six state-of-the-art LLMs on over 20,000 caregiver queries from Reddit and ALZConnected. Rubric-guided refinement consistently reduced risk-components by 45-98% after one iteration across models. This work contributes a methodological approach for developing domain-sensitive, user-centered evaluation frameworks for high-burden contexts. Our findings highlight the importance of domain-sensitive, interactional risk evaluation for the responsible deployment of LLMs in caregiving support contexts. We release benchmark datasets to enable future research on contextual risk evaluation in AI-mediated support.
- Abstract(参考訳): AIを活用したサポートを求める介護者は、情報検索、感情的検証、苦難のキューといった複雑なニーズを表現し、応答の安全性と適切性について慎重に評価する。
既存のAI評価フレームワークは、一般的なリスク(毒性、幻覚、ポリシー違反など)に重点を置いているが、ケア・コンテキストにおけるLLM-レスポンスのニュアンスなリスクを適切に捉えていない可能性がある。
本稿では,LLM介護者のリスクを評価するための理論駆動型臨床評価フレームワークであるRubric-based Risk Index(Rubric-based Risk Index)を紹介する。
医療倫理の要素に基づいて、RubRIXは、インタテンション、バイアス&スティグマ、情報不正確、非クリティカルアフィグレーション、疫学アロガンスという、経験的に派生した5つのリスク次元を運用している。
Reddit と ALZConnected から 20,000 以上の介護者の質問に対して,最先端の LLM を6 つ評価した。
ルーブリック誘導による改良により、モデル間の1回のイテレーションの後、リスクコンポーネントを45~98%削減した。
この研究は、高バーデンコンテキストのためのドメイン依存型ユーザ中心評価フレームワークを開発するための方法論的アプローチに寄与する。
本研究は,介護支援の文脈におけるLLMの責任ある展開に対するドメイン依存的・相互作用的リスク評価の重要性を浮き彫りにした。
我々は、AIによるサポートにおける文脈的リスク評価に関する将来の研究を可能にするために、ベンチマークデータセットをリリースする。
関連論文リスト
- Between Help and Harm: An Evaluation of Mental Health Crisis Handling by LLMs [6.0460961868478975]
臨床的にインフォームドされた6つのメンタルヘルス危機カテゴリーの統一分類を導入する。
我々は、危機タイプを分類し、安全で適切な応答を生成する能力のために、3つの最先端のLCMをベンチマークする。
間接的または曖昧なリスク信号の処理におけるシステム的弱点、定式的および不完全なデフォルト応答への依存、およびユーザコンテキストとの頻繁な不一致を識別する。
論文 参考訳(メタデータ) (2025-09-29T14:42:23Z) - RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。