論文の概要: The Persona Paradox: Medical Personas as Behavioral Priors in Clinical Language Models
- arxiv url: http://arxiv.org/abs/2601.05376v1
- Date: Thu, 08 Jan 2026 21:01:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.770595
- Title: The Persona Paradox: Medical Personas as Behavioral Priors in Clinical Language Models
- Title(参考訳): ペルソナパラドックス : 臨床言語モデルにおける行動優位としての医療者
- Authors: Tassallah Abdullahi, Shrestha Ghosh, Hamish S Fraser, Daniel León Tramontini, Adeel Abbasi, Ghada Bourjeily, Carsten Eickhoff, Ritambhara Singh,
- Abstract要約: ペルソナは、安全性や専門性の保証よりも、コンテキスト依存のトレードオフを導入する行動の先駆者として機能する。
私たちの研究は、ペルソナが安全性や専門知識の保証よりも、文脈に依存したトレードオフを導入する行動の優先事項として機能することを示している。
- 参考スコア(独自算出の注目度): 18.902372087770562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Persona conditioning can be viewed as a behavioral prior for large language models (LLMs) and is often assumed to confer expertise and improve safety in a monotonic manner. However, its effects on high-stakes clinical decision-making remain poorly characterized. We systematically evaluate persona-based control in clinical LLMs, examining how professional roles (e.g., Emergency Department physician, nurse) and interaction styles (bold vs.\ cautious) influence behavior across models and medical tasks. We assess performance on clinical triage and patient-safety tasks using multidimensional evaluations that capture task accuracy, calibration, and safety-relevant risk behavior. We find systematic, context-dependent, and non-monotonic effects: Medical personas improve performance in critical care tasks, yielding gains of up to $\sim+20\%$ in accuracy and calibration, but degrade performance in primary-care settings by comparable margins. Interaction style modulates risk propensity and sensitivity, but it's highly model-dependent. While aggregated LLM-judge rankings favor medical over non-medical personas in safety-critical cases, we found that human clinicians show moderate agreement on safety compliance (average Cohen's $κ= 0.43$) but indicate a low confidence in 95.9\% of their responses on reasoning quality. Our work shows that personas function as behavioral priors that introduce context-dependent trade-offs rather than guarantees of safety or expertise. The code is available at https://github.com/rsinghlab/Persona\_Paradox.
- Abstract(参考訳): ペルソナ条件付けは、大規模言語モデル(LLM)の行動先行と見なすことができ、専門知識を与え、モノトニックな方法で安全性を向上させると仮定されることが多い。
しかし, その臨床的意思決定に対する影響は, いまだに不十分なままである。
臨床 LLM におけるペルソナ制御を体系的に評価し,職業的役割(救急医,看護師など)と相互作用様式(ボルト対ボール)について検討した。
注意) モデルと医療タスクの振る舞いに影響を与える。
我々は,タスクの精度,キャリブレーション,安全関連リスク行動を把握する多次元評価を用いて,臨床トリアージと患者安全タスクの性能を評価する。
医療ペルソナは、クリティカルケアタスクのパフォーマンスを改善し、精度とキャリブレーションで最大$\sim+20\%の利益を得るが、プライマリケア設定では同等のマージンでパフォーマンスを低下させる。
インタラクションスタイルはリスクの妥当性と感度を調節しますが、モデルに依存しています。
LLM-judgeランキングは、安全クリティカルなケースでは非医療的人格よりも医療が好まれるが、人間臨床医は安全コンプライアンスに関する適度な合意(平均的コーエンのκ=0.43$)を示したが、推論品質に対する回答の95.9%の信頼は低かった。
私たちの研究は、ペルソナが安全性や専門知識の保証よりも、文脈に依存したトレードオフを導入する行動の優先事項として機能することを示している。
コードはhttps://github.com/rsinghlab/Persona\_Paradoxで公開されている。
関連論文リスト
- Balancing Safety and Helpfulness in Healthcare AI Assistants through Iterative Preference Alignment [9.422745886489801]
大きな言語モデル(LLM)は、医療でますます使われていますが、その安全性と信頼性は、デプロイメントの障壁として残っています。
本稿では,KTO(Kahneman-Tversky Optimization)とDPO(Direct Preference Optimization)を用いて,ドメイン固有の安全信号に対するモデルの改良を行う。
論文 参考訳(メタデータ) (2025-12-03T19:30:07Z) - Psychometric Personality Shaping Modulates Capabilities and Safety in Language Models [3.9481669393262675]
本稿では,ビッグファイブの枠組みに根ざした心理測定的パーソナリティコントロールが,能力と安全性ベンチマークの文脈におけるAI行動にどのように影響するかを検討する。
WMDP, TruthfulQA, ETHICS, およびSycophancyなどのベンチマークでは, 安全性関連指標が大幅に低下する。
これらの知見は、安全性と一般的な能力の両方と相互作用するモデル制御の強力で過小評価された軸としてのパーソナリティ形成を強調した。
論文 参考訳(メタデータ) (2025-09-19T18:19:56Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Medical Red Teaming Protocol of Language Models: On the Importance of User Perspectives in Healthcare Settings [48.096652370210016]
本稿では,患者と臨床医の両方の視点で医療領域に適した安全評価プロトコルを提案する。
医療用LLMの安全性評価基準を3つの異なる視点を取り入れたレッドチームで定義した最初の研究である。
論文 参考訳(メタデータ) (2025-07-09T19:38:58Z) - DeVisE: Behavioral Testing of Medical Large Language Models [14.832083455439749]
DeVisEは、きめ細かい臨床的理解を求めるための行動テストフレームワークである。
我々はMIMIC-IVからICU排出音符のデータセットを構築した。
汎用型および医療用微調整型にまたがる5種類のLSMについて検討した。
論文 参考訳(メタデータ) (2025-06-18T10:42:22Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Operationalizing Counterfactual Metrics: Incentives, Ranking, and
Information Asymmetry [62.53919624802853]
このような平均的な治療結果の指標から生じるインセンティブのずれを分析した。
本稿では,患者が対象とするランキングシステムにおいて,対物メトリクスを合理的に振る舞うように修正する方法を示す。
論文 参考訳(メタデータ) (2023-05-24T00:24:38Z) - KIDS: kinematics-based (in)activity detection and segmentation in a
sleep case study [5.707737640557724]
睡眠行動とベッド内の運動は、人々の神経生理学的健康に関する豊富な情報を含んでいる。
本稿では,臨床的に有意な関節キネマティクスに基づく客観的(in)アクティビティ検出とセグメンテーションのためのオンラインベイズ確率的枠組みを提案する。
論文 参考訳(メタデータ) (2023-01-04T16:24:01Z) - Interpretability by design using computer vision for behavioral sensing
in child and adolescent psychiatry [3.975358343371988]
我々は機械学習を用いて行動規範や金の標準行動評価システムの概念を導出する。
私たちの評価は、ネガティブな感情、活動レベル/覚醒、不安に対する人間の専門家評価に匹敵するものでした。
論文 参考訳(メタデータ) (2022-07-11T09:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。