論文の概要: Ask WhAI:Probing Belief Formation in Role-Primed LLM Agents
- arxiv url: http://arxiv.org/abs/2511.14780v1
- Date: Thu, 06 Nov 2025 20:31:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.351012
- Title: Ask WhAI:Probing Belief Formation in Role-Primed LLM Agents
- Title(参考訳): Ask WhAI:ロールプライズLDM剤の信念形成
- Authors: Keith Moore, Jun W. Kim, David Lyu, Jeffrey Heo, Ehsan Adeli,
- Abstract要約: 本稿では,マルチエージェントインタラクションにおける信念状態の検査と摂動を行うシステムレベルのフレームワークであるAsk WhAIを紹介する。
本フレームワークをマルチエージェント共有メモリで有名な医療ケースシミュレータに適用する。
- 参考スコア(独自算出の注目度): 5.880756699132853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Ask WhAI, a systems-level framework for inspecting and perturbing belief states in multi-agent interactions. The framework records and replays agent interactions, supports out-of-band queries into each agent's beliefs and rationale, and enables counterfactual evidence injection to test how belief structures respond to new information. We apply the framework to a medical case simulator notable for its multi-agent shared memory (a time-stamped electronic medical record, or EMR) and an oracle agent (the LabAgent) that holds ground truth lab results revealed only when explicitly queried. We stress-test the system on a multi-specialty diagnostic journey for a child with an abrupt-onset neuropsychiatric presentation. Large language model agents, each primed with strong role-specific priors ("act like a neurologist", "act like an infectious disease specialist"), write to a shared medical record and interact with a moderator across sequential or parallel encounters. Breakpoints at key diagnostic moments enable pre- and post-event belief queries, allowing us to distinguish entrenched priors from reasoning or evidence-integration effects. The simulation reveals that agent beliefs often mirror real-world disciplinary stances, including overreliance on canonical studies and resistance to counterevidence, and that these beliefs can be traced and interrogated in ways not possible with human experts. By making such dynamics visible and testable, Ask WhAI offers a reproducible way to study belief formation and epistemic silos in multi-agent scientific reasoning.
- Abstract(参考訳): 本稿では,マルチエージェントインタラクションにおける信念状態の検査と摂動を行うシステムレベルのフレームワークであるAsk WhAIを紹介する。
このフレームワークは、エージェントの相互作用を記録し再生し、各エージェントの信念と合理性へのアウト・オブ・バンドクエリをサポートし、信念構造が新しい情報にどのように反応するかをテストするための反実的な証拠注入を可能にする。
この枠組みを,マルチエージェント共有メモリ(タイムスタンプ型電子カルテ,EMR)と,具体的真理検査結果が明らかにされた場合にのみ明らかとなるオラクルエージェント(LabAgent)に応用した。
突発性神経精神疾患を発症した小児の多種性診断におけるストレステストを行った。
大型の言語モデルエージェントは、それぞれ強い役割特異的な前駆体(神経科医のように、「感染症の専門家のように」)を持ち、共有された医療記録に書き、逐次的または平行な出会いでモデレーターと相互作用する。
重要な診断モーメントにおけるブレークポイントは、事前および事後的な信念クエリを可能にし、定着した事前を推論やエビデンス統合効果と区別することができる。
シミュレーションにより、エージェントの信念は、正統的な研究への過度な信頼や、反証に対する抵抗など、現実世界の学際的なスタンスを反映することが多く、これらの信念は、人間の専門家には不可能な方法で追跡され、尋問される可能性があることが明らかになった。
このようなダイナミクスを可視化し、検証可能にすることで、Ask WhAIは、マルチエージェントの科学的推論において、信念の形成とてんかんのサイロを研究する再現可能な方法を提供する。
関連論文リスト
- DispatchMAS: Fusing taxonomy and artificial intelligence agents for emergency medical services [49.70819009392778]
大規模言語モデル (LLM) とマルチエージェントシステム (MAS) は、ディスパッチを増強する機会を提供する。
本研究の目的は,現実的なシナリオをシミュレートする分類基盤型マルチエージェントシステムの開発と評価である。
論文 参考訳(メタデータ) (2025-10-24T08:01:21Z) - Biomedical reasoning in action: Multi-agent System for Auditable Biomedical Evidence Synthesis [19.14228623181563]
バイオメディカル領域における透明でエージェントベースの推論とエビデンス統合のための実証システムであるM-Reasonについて述べる。
M-Reasonは、大規模言語モデル(LLM)とモジュールエージェントオーケストレーションの最近の進歩を活用して、様々なバイオメディカルデータソース間のエビデンス検索、評価、合成を自動化する。
オープンでインタラクティブなユーザインターフェースにより、研究者はマルチエージェントワークフローを直接観察し、調査し、評価することができる。
論文 参考訳(メタデータ) (2025-10-06T19:57:29Z) - Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - Tree-of-Reasoning: Towards Complex Medical Diagnosis via Multi-Agent Reasoning with Evidence Tree [14.013981070330153]
複雑なシナリオを扱うために設計された新しいマルチエージェントフレームワークであるTree-of-Reasoning (ToR)を提案する。
具体的には、大規模言語モデル(LLM)の推論経路とそれに対応する臨床証拠を明確に記録できるツリー構造を導入する。
同時に,マルチエージェント意思決定の整合性を確保するためのクロスバリデーション機構を提案する。
論文 参考訳(メタデータ) (2025-08-05T03:31:28Z) - DoctorAgent-RL: A Multi-Agent Collaborative Reinforcement Learning System for Multi-Turn Clinical Dialogue [18.814676128928234]
大規模言語モデル (LLMs) は, バイオメディカルな質問応答の分野で優れた能力を発揮してきたが, 実際の臨床研究への応用はいまだに課題に直面している。
我々は,医療相談を不確実性下での動的意思決定プロセスとしてモデル化する,強化学習(RL)に基づくマルチエージェント協調フレームワークであるOursを提案する。
本手法は,医療資源の配分を最適化し,労働力不足を緩和する戦略の草分けとして,時間的プレッシャーによる誤診リスクの低減,複雑な症例に対する臨床医の解放,医療資源配分の最適化,労働力不足の緩和など,極めて実践的な価値を示す。
論文 参考訳(メタデータ) (2025-05-26T07:48:14Z) - Medical Hallucinations in Foundation Models and Their Impact on Healthcare [71.15392179084428]
基礎モデルの幻覚は自己回帰訓練の目的から生じる。
トップパフォーマンスモデルは、チェーン・オブ・シークレット・プロンプトで強化された場合、97%の精度を達成した。
論文 参考訳(メタデータ) (2025-02-26T02:30:44Z) - AgentClinic: a multimodal agent benchmark to evaluate AI in simulated clinical environments [2.567146936147657]
シミュレーションされた臨床環境における大規模言語モデル(LLM)の評価のためのマルチモーダルエージェントベンチマークであるAgentClinicを紹介する。
我々は,AgentClinicの逐次決定形式におけるMedQA問題の解決が極めて困難であることに気付き,診断精度が元の精度の10分の1以下に低下することを発見した。
論文 参考訳(メタデータ) (2024-05-13T17:38:53Z) - Uncertainty-aware Medical Diagnostic Phrase Identification and Grounding [72.18719355481052]
MRG(Messical Report Grounding)と呼ばれる新しい課題について紹介する。
MRGは医療報告から診断フレーズとその対応する接地箱を直接エンドツーエンドで識別することを目的としている。
マルチモーダルな大規模言語モデルを用いて診断フレーズを予測する,堅牢で信頼性の高いフレームワークである uMedGround を提案する。
論文 参考訳(メタデータ) (2024-04-10T07:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。