論文の概要: ArgMed-Agents: Explainable Clinical Decision Reasoning with Large
Language Models via Argumentation Schemes
- arxiv url: http://arxiv.org/abs/2403.06294v1
- Date: Sun, 10 Mar 2024 19:47:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 21:00:14.931390
- Title: ArgMed-Agents: Explainable Clinical Decision Reasoning with Large
Language Models via Argumentation Schemes
- Title(参考訳): ArgMed-Agents:Argumentation Schemesによる大規模言語モデルによる説明可能な臨床診断
- Authors: Shengxin Hong, Liang Xiao, Xin Zhang, Jianxia Chen
- Abstract要約: ArgMed-Agentsは、大きな言語モデル(LLM)が相互作用を通じて説明可能な臨床判断を下すことを目的としている。
セットアップ実験の結果,ArgMed-Agentsは,他のプロンプト手法と比較して,複雑な臨床的意思決定推論問題の精度を向上させるだけでなく,信頼性を高めるための意思決定説明を提供することがわかった。
- 参考スコア(独自算出の注目度): 8.685768706725607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are two main barriers to using large language models (LLMs) in clinical
reasoning. Firstly, while LLMs exhibit significant promise in Natural Language
Processing (NLP) tasks, their performance in complex reasoning and planning
falls short of expectations. Secondly, LLMs use uninterpretable methods to make
clinical decisions that are fundamentally different from the clinician's
cognitive processes. This leads to user distrust. In this paper, we present a
multi-agent framework called ArgMed-Agents, which aims to enable LLM-based
agents to make explainable clinical decision reasoning through interaction.
ArgMed-Agents performs self-argumentation iterations via Argumentation Scheme
for Clinical Decision (a reasoning mechanism for modeling cognitive processes
in clinical reasoning), and then constructs the argumentation process as a
directed graph representing conflicting relationships. Ultimately, Reasoner(a
symbolic solver) identify a series of rational and coherent arguments to
support decision. ArgMed-Agents enables LLMs to mimic the process of clinical
argumentative reasoning by generating explanations of reasoning in a
self-directed manner. The setup experiments show that ArgMed-Agents not only
improves accuracy in complex clinical decision reasoning problems compared to
other prompt methods, but more importantly, it provides users with decision
explanations that increase their confidence.
- Abstract(参考訳): 臨床推論における大規模言語モデル(llm)の使用には、2つの大きな障壁がある。
第一に、LLMは自然言語処理(NLP)タスクにおいて有望であるが、複雑な推論や計画における性能は期待に届かなかった。
第2に、LLMは解釈不能な方法を使用して、臨床医の認知過程と根本的に異なる臨床的決定を行う。
これはユーザーの不信につながる。
本稿では, LLMをベースとしたエージェントが, 相互作用による説明可能な臨床意思決定を行えるようにするためのマルチエージェントフレームワークArgMed-Agentsを提案する。
ArgMed-AgentsはArgumentation Scheme for Clinical Decision(臨床推論における認知過程をモデル化するための推論機構)を介して自己論証反復を行い、矛盾する関係を表す有向グラフとして議論プロセスを構築する。
究極的には、reasoner(シンボリックソルバ)は意思決定を支援するために一連の合理的かつ一貫性のある議論を識別する。
ArgMed-Agentsは、LSMが自己指向的な推論の説明を生成することによって、臨床議論的推論の過程を模倣することを可能にする。
セットアップ実験の結果,ArgMed-Agentsは,他のプロンプト手法と比較して,複雑な臨床的意思決定推論問題の精度を向上させるだけでなく,信頼性を高めるための意思決定説明を提供する。
関連論文リスト
- Argumentative Large Language Models for Explainable and Contestable Decision-Making [13.045050015831903]
大規模言語モデル (LLMs) は意思決定において有望な候補である。
それらは、説明可能で競合可能なアウトプットを確実に提供できないため、制限されている。
議論フレームワークを構築するために LLM を利用する手法である 引数 LLM を導入する。
クレーム検証の意思決定タスクにおいて,議論的LLMの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Guiding Clinical Reasoning with Large Language Models via Knowledge
Seeds [37.080274964170094]
臨床推論(英: Clinical reasoning)とは、医師が患者の評価と管理に用いている認知過程のことである。
本研究では,医学的知識によるLCMの強化を目的とした新しい枠組みであるICP(In-Context Padding)を提案する。
論文 参考訳(メタデータ) (2024-03-11T10:53:20Z) - AI Hospital: Interactive Evaluation and Collaboration of LLMs as Intern
Doctors for Clinical Diagnosis [72.50974375416239]
リアルタイムのインタラクティブな診断環境を構築するために設計されたフレームワークであるAI Hospitalを紹介する。
様々な大規模言語モデル(LLM)は、対話的診断のためのインターン医師として機能する。
我々は,医療部長の監督の下で,反復的な議論と紛争解決プロセスを含む協調的なメカニズムを導入する。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Diagnostic Reasoning Prompts Reveal the Potential for Large Language
Model Interpretability in Medicine [4.773117448586697]
そこで我々は,大言語モデル(LLM)が臨床推論を実行し,正確な診断を行うことができるかどうかを,新たな診断推論プロンプトを開発した。
GPT4は診断精度を犠牲にすることなく臨床医の一般的な臨床推論過程を模倣することができる。
論文 参考訳(メタデータ) (2023-08-13T19:04:07Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。