論文の概要: Grounding AI Explanations in Experience: A Reflective Cognitive Architecture for Clinical Decision Support
- arxiv url: http://arxiv.org/abs/2509.21266v1
- Date: Thu, 25 Sep 2025 14:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:13.003829
- Title: Grounding AI Explanations in Experience: A Reflective Cognitive Architecture for Clinical Decision Support
- Title(参考訳): 臨床診断支援のための反射型認知アーキテクチャ
- Authors: Zijian Shao, Haiyang Shen, Mugeng Liu, Gecheng Fu, Yaoqi Guo, Yanfeng Wang, Yun Ma,
- Abstract要約: 我々は、高精度で高品質な説明は別個の目的ではなく、データを深く直接理解するモデルの結果を相互に補強していると論じる。
より深い理解を促進する信号として予測精度を使用することで、RCAはデータの強力な内部モデルを構築する。
以上の結果から,RCAはベースラインの40%以上の相対的な改善によって最先端の精度と堅牢性を達成するだけでなく,この深い理解を活用して,明確で論理的,エビデンスに基づく,バランスの取れた説明の創出に長けていることが示唆された。
- 参考スコア(独自算出の注目度): 20.895077257831016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective disease prediction in modern healthcare demands the twin goals of high accuracy and transparent, clinically meaningful explanations. Existing machine learning and large language model (LLM) based approaches often struggle to balance these goals. Many models yield accurate but unclear statistical outputs, while others generate fluent but statistically unsupported narratives, often undermining both the validity of the explanation and the predictive accuracy itself. This shortcoming comes from a shallow interaction with the data, preventing the development of a deep, detailed understanding similar to a human expert's. We argue that high accuracy and high-quality explanations are not separate objectives but are mutually reinforcing outcomes of a model that develops a deep, direct understanding of the data. To achieve this, we propose the Reflective Cognitive Architecture (RCA), a novel framework that coordinates multiple LLMs to learn from direct experience. RCA features an iterative rule refinement mechanism that improves its logic from prediction errors and a distribution-aware rules check mechanism that bases its reasoning in the dataset's global statistics. By using predictive accuracy as a signal to drive deeper comprehension, RCA builds a strong internal model of the data. We evaluated RCA on one private and two public datasets against 22 baselines. The results demonstrate that RCA not only achieves state-of-the-art accuracy and robustness with a relative improvement of up to 40\% over the baseline but, more importantly, leverages this deep understanding to excel in generating explanations that are clear, logical, evidence-based, and balanced, highlighting its potential for creating genuinely trustworthy clinical decision support systems. The code is available at \https://github.com/ssssszj/RCA.
- Abstract(参考訳): 現代の医療における効果的な疾患予測は、高い精度と透明で臨床的に意味のある説明の双子の目標を要求する。
既存の機械学習と大規模言語モデル(LLM)ベースのアプローチは、これらの目標のバランスをとるのに苦労することが多い。
多くのモデルは正確だが不明瞭な統計的アウトプットを生み出し、他のモデルは流動的であるが統計的に支持されない物語を生成し、しばしば説明の妥当性と予測精度自体を損なう。
この欠点は、データとの浅い相互作用から生じ、人間の専門家と同様の深い詳細な理解の開発を妨げている。
我々は、高精度で高品質な説明は別個の目的ではなく、データを深く直接理解するモデルの結果を相互に補強していると論じる。
これを実現するために,複数のLLMを協調して直接経験から学習する新しいフレームワークであるReflective Cognitive Architecture (RCA)を提案する。
RCAは、予測エラーからロジックを改善する反復ルール改善メカニズムと、データセットのグローバル統計における推論に基づく分散対応ルールチェックメカニズムを備えている。
より深い理解を促進する信号として予測精度を使用することで、RCAはデータの強力な内部モデルを構築する。
RCAを1つのプライベートデータセットと2つのパブリックデータセットと22のベースラインに対して評価した。
以上の結果から,RCAは現状の精度とロバスト性を達成できるだけでなく,この深い理解を活かして,明確で論理的,エビデンスベース,バランスの取れた説明を抽出し,真に信頼できる臨床診断支援システムを構築する可能性を強調した。
コードはhttps://github.com/sssszj/RCA.comで入手できる。
関連論文リスト
- Deliberative Reasoning Network: An Uncertainty-Driven Paradigm for Belief-Tracked Inference with Pretrained Language Models [7.095344389368656]
Deliberative Reasoning Network (DRN) は、確率から不確実性への論理的推論を再構成する新しいパラダイムである。
DRNは、信念状態を明示的に追跡し、競合する仮説の不確実性を定量化することによって、本質的な解釈可能性を達成する。
我々は、DRNを、より信頼できるAIシステムを構築するための、基礎的で検証可能なシステム2推論コンポーネントとして位置付ける。
論文 参考訳(メタデータ) (2025-08-06T11:33:35Z) - Divide-Then-Align: Honest Alignment based on the Knowledge Boundary of RAG [51.120170062795566]
本稿では,問合せが知識境界外にある場合の"I don't know"で応答する機能を備えたRAGシステムを実現するためのDTAを提案する。
DTAは適切な棄権と精度のバランスをとり、検索強化システムの信頼性と信頼性を高める。
論文 参考訳(メタデータ) (2025-05-27T08:21:21Z) - Efficient Epistemic Uncertainty Estimation in Cerebrovascular Segmentation [1.3980986259786223]
ベイズ近似とディープアンサンブルの利点を組み合わせた効率的なアンサンブルモデルを提案する。
高モデル不確実性と誤予測の領域は一致しており、このアプローチの有効性と信頼性を示している。
論文 参考訳(メタデータ) (2025-03-28T09:39:37Z) - Unveiling the Power of Uncertainty: A Journey into Bayesian Neural Networks for Stellar dating [0.9999629695552196]
本稿では,確率的関係をニューラルネットワークでモデル化した階層型ベイズアーキテクチャを提案する。
我々は、質量、半径、年齢(主ターゲット)などの恒星特性を予測する。
我々のシステムは予測値の潜在的な範囲をカプセル化する分布を生成する。
論文 参考訳(メタデータ) (2025-03-27T04:45:48Z) - Learning to Generate and Evaluate Fact-checking Explanations with Transformers [10.970249299147866]
XAI(Explainable Artificial Antelligence)の研究
我々は,人間のアクセス可能な説明を生成することによって,意思決定を文脈化し,正当化するトランスフォーマーベースの事実チェックモデルを開発した。
我々は人工知能(AI)による説明と人間の判断を一致させる必要性を強調した。
論文 参考訳(メタデータ) (2024-10-21T06:22:51Z) - DAGnosis: Localized Identification of Data Inconsistencies using
Structures [73.39285449012255]
機械学習モデルを確実に使用するためには、デプロイメント時のデータの不整合の特定と適切な処理が不可欠である。
我々は,有向非巡回グラフ(DAG)を用いて,トレーニングセットの特徴分布と非依存性を構造として符号化する。
我々の手法はDAGnosisと呼ばれ、これらの構造的相互作用を利用して、価値があり洞察に富んだデータ中心の結論をもたらす。
論文 参考訳(メタデータ) (2024-02-26T11:29:16Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。