論文の概要: CasiMedicos-Arg: A Medical Question Answering Dataset Annotated with Explanatory Argumentative Structures
- arxiv url: http://arxiv.org/abs/2410.05235v2
- Date: Tue, 8 Oct 2024 13:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 20:07:08.315117
- Title: CasiMedicos-Arg: A Medical Question Answering Dataset Annotated with Explanatory Argumentative Structures
- Title(参考訳): CasiMedicos-Arg:説明的説明構造を付加した医療質問応答データセット
- Authors: Ekaterina Sviridova, Anar Yeginbergen, Ainara Estarrona, Elena Cabrio, Serena Villata, Rodrigo Agerri,
- Abstract要約: 本報告では, 臨床症例の正しい診断と誤診断を, 医師が記述した自然言語による説明に富む, 医療質問応答のための最初の多言語データセットを提案する。
このデータセットは、5021の主張、2313の前提、2431の支持関係、1106の攻撃関係を注釈した4つの言語(英語、スペイン語、フランス語、イタリア語)の558の臨床ケースで構成されています。
- 参考スコア(独自算出の注目度): 19.242920846826895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining Artificial Intelligence (AI) decisions is a major challenge nowadays in AI, in particular when applied to sensitive scenarios like medicine and law. However, the need to explain the rationale behind decisions is a main issue also for human-based deliberation as it is important to justify \textit{why} a certain decision has been taken. Resident medical doctors for instance are required not only to provide a (possibly correct) diagnosis, but also to explain how they reached a certain conclusion. Developing new tools to aid residents to train their explanation skills is therefore a central objective of AI in education. In this paper, we follow this direction, and we present, to the best of our knowledge, the first multilingual dataset for Medical Question Answering where correct and incorrect diagnoses for a clinical case are enriched with a natural language explanation written by doctors. These explanations have been manually annotated with argument components (i.e., premise, claim) and argument relations (i.e., attack, support), resulting in the Multilingual CasiMedicos-Arg dataset which consists of 558 clinical cases in four languages (English, Spanish, French, Italian) with explanations, where we annotated 5021 claims, 2313 premises, 2431 support relations, and 1106 attack relations. We conclude by showing how competitive baselines perform over this challenging dataset for the argument mining task.
- Abstract(参考訳): 人工知能(AI)の決定を説明することは、特に医学や法律のような繊細なシナリオに適用する場合、近年、AIにおいて大きな課題となっている。
しかしながら、意思決定の背景にある理論的根拠を説明する必要性は、ある決定が下されたときに \textit{why} を正当化することが重要であるため、人間による熟考においても重要な問題である。
例えば、居住医は、(おそらく正しい)診断を提供するだけでなく、どのようにして一定の結論に達したかを説明するために必要である。
したがって、住民が説明スキルを訓練するための新しいツールを開発することは、教育におけるAIの中心的な目的である。
本稿では, 臨床症例の正しい診断と誤診が, 医師が記述した自然言語による説明に富む, 医療質問回答のための最初の多言語データセットについて述べる。
これらの説明は、議論要素(前提、クレーム)と議論関係(すなわち、攻撃、支援)で手動で注釈付けされ、その結果、多言語 CasiMedicos-Arg データセットは、4つの言語(英語、スペイン語、フランス語、イタリア語)で558の臨床ケースで構成され、5021のクレーム、2313の前提、2431の支持関係、1106の攻撃関係が注釈付けされた。
我々は、議論マイニングタスクにおいて、この挑戦的なデータセットに対して、競争ベースラインがどのように機能するかを示すことで締めくくります。
関連論文リスト
- Explainable AI: Definition and attributes of a good explanation for health AI [0.18846515534317265]
AIシステムが推奨する方法と理由を理解するには、内部の動作と推論プロセスに関する複雑な説明が必要になる可能性がある。
AIの可能性を完全に実現するためには、安全クリティカルなAIアプリケーションの説明に関する2つの基本的な疑問に対処することが重要である。
本研究の成果は,(1)健康AIにおける説明を構成するものの定義,(2)健康AIにおける良い説明を特徴付ける属性の包括的リストを含む。
論文 参考訳(メタデータ) (2024-09-09T16:56:31Z) - Diagnostic Reasoning in Natural Language: Computational Model and Application [68.47402386668846]
言語基底タスク(NL-DAR)の文脈における診断誘導推論(DAR)について検討する。
パール構造因果モデルに基づくNL-DARの新しいモデリングフレームワークを提案する。
得られたデータセットを用いて,NL-DARにおける人間の意思決定過程を解析する。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - The Explanation Necessity for Healthcare AI [3.8953842074141387]
そこで本研究では,4つの異なる説明のクラスを持つ新たな分類体系を提案する。
評価プロトコルの堅牢性、専門家による観察の変動性、アプリケーションの表現次元性という3つの重要な要素が考慮されている。
論文 参考訳(メタデータ) (2024-05-31T22:20:10Z) - InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification [60.10193972862099]
本研究は, 簡易化による情報損失を問合せ・問合せ形式で特徴づけ, 回復する枠組みを提案する。
QAペアは、読者がテキストの知識を深めるのに役立つように設計されている。
論文 参考訳(メタデータ) (2024-01-29T19:00:01Z) - Explanatory Argument Extraction of Correct Answers in Resident Medical
Exams [5.399800035598185]
本稿では, 正しい回答に対する説明的議論だけでなく, 誤った回答が正しい理由を推論するための議論を含む新しいデータセットを提案する。
このベンチマークにより,医師が作成した正しい回答の説明を識別する新しい抽出タスクを構築できる。
論文 参考訳(メタデータ) (2023-12-01T13:22:35Z) - Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence [33.018873142559286]
本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
論文 参考訳(メタデータ) (2023-10-02T16:00:37Z) - HiTZ@Antidote: Argumentation-driven Explainable Artificial Intelligence
for Digital Medicine [7.089952396422835]
AntiDOTEは、ディープラーニングプロセスの低レベル特性と人間の議論能力に適した高レベルスキームが組み合わされる、説明可能なAIという統合的なビジョンを育む。
プロジェクトの最初の成果として、Antidote CasiMedicosデータセットを公開し、一般に説明可能なAIの研究、特に医療分野における議論を促進する。
論文 参考訳(メタデータ) (2023-06-09T16:50:02Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。