論文の概要: Attention-based Aspect Reasoning for Knowledge Base Question Answering
on Clinical Notes
- arxiv url: http://arxiv.org/abs/2108.00513v1
- Date: Sun, 1 Aug 2021 17:58:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:24:12.030386
- Title: Attention-based Aspect Reasoning for Knowledge Base Question Answering
on Clinical Notes
- Title(参考訳): 臨床ノートに対する知識ベース質問に対する注意に基づくアスペクト推論
- Authors: Ping Wang, Tian Shi, Khushbu Agarwal, Sutanay Choudhury, Chandan K.
Reddy
- Abstract要約: 臨床ノートから知識ベースを作成し、異なる患者と臨床ノートをリンクさせ、知識ベース質問応答(KBQA)を実行することを目的としている。
n2c2のエキスパートアノテーションに基づいて、まず8,952のQAペアを含む臨床KBQAデータセットを作成し、322の質問テンプレートを通じて7つの医療トピックに関する質問をカバーした。
本稿では,KBQAの注意に基づくアスペクト推論(AAR)手法を提案する。
- 参考スコア(独自算出の注目度): 12.831807443341214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question Answering (QA) in clinical notes has gained a lot of attention in
the past few years. Existing machine reading comprehension approaches in
clinical domain can only handle questions about a single block of clinical
texts and fail to retrieve information about different patients and clinical
notes. To handle more complex questions, we aim at creating knowledge base from
clinical notes to link different patients and clinical notes, and performing
knowledge base question answering (KBQA). Based on the expert annotations in
n2c2, we first created the ClinicalKBQA dataset that includes 8,952 QA pairs
and covers questions about seven medical topics through 322 question templates.
Then, we proposed an attention-based aspect reasoning (AAR) method for KBQA and
investigated the impact of different aspects of answers (e.g., entity, type,
path, and context) for prediction. The AAR method achieves better performance
due to the well-designed encoder and attention mechanism. In the experiments,
we find that both aspects, type and path, enable the model to identify answers
satisfying the general conditions and produce lower precision and higher
recall. On the other hand, the aspects, entity and context, limit the answers
by node-specific information and lead to higher precision and lower recall.
- Abstract(参考訳): 臨床ノートにおける質問応答 (QA) はここ数年で注目されている。
既存の臨床領域における機械読解アプローチは、臨床テキストの1ブロックに関する質問にのみ対応でき、異なる患者や臨床ノートに関する情報を検索できない。
より複雑な質問に対処するため,臨床ノートから知識ベースを作成し,異なる患者と臨床ノートをリンクし,知識ベース質問応答(KBQA)を実行することを目的とした。
n2c2のエキスパートアノテーションに基づいて、まず8,952のQAペアを含む臨床KBQAデータセットを作成し、322の質問テンプレートを通じて7つの医療トピックに関する質問をカバーした。
そこで我々は,KBQAの注意に基づくアスペクト推論(AAR)手法を提案し,回答のさまざまな側面(エンティティ,タイプ,パス,コンテキストなど)が予測に与える影響を検討した。
AAR法は、よく設計されたエンコーダとアテンション機構により、より良い性能を実現する。
実験では、型とパスの両方の側面によって、モデルが一般的な条件を満たす答えを識別でき、より正確で高いリコールが得られることを発見した。
一方、エンティティとコンテキストという側面は、ノード固有の情報によって答えを制限し、より高い精度と低いリコールにつながる。
関連論文リスト
- HiQuE: Hierarchical Question Embedding Network for Multimodal Depression Detection [11.984035389013426]
HiQuEは、臨床面接における一次質問とフォローアップ質問の階層的関係を活用する、新規なうつ病検出フレームワークである。
我々はDAIC-WOZという,広く利用されている臨床面接データについて広範な実験を行い,そのモデルが他の最先端マルチモーダルうつ病検出モデルより優れていることを示した。
論文 参考訳(メタデータ) (2024-08-07T09:23:01Z) - K-QA: A Real-World Medical Q&A Benchmark [12.636564634626422]
K-QA(K-QA)は、K Health上での実際の会話から発せられる1,212の患者質問を含むデータセットである。
我々は,K-QAのサブセットを自己完結文に分解するために,内科医のパネルを用いて回答し,手動で分解する。
我々は、いくつかの最先端モデルと、コンテキスト内学習と医学指向の拡張検索スキームの効果を評価した。
論文 参考訳(メタデータ) (2024-01-25T20:11:04Z) - A Cross Attention Approach to Diagnostic Explainability using Clinical Practice Guidelines for Depression [13.000907040545583]
そこで我々は,一般的なトランスフォーマーモデルにおける注目度を高め,臨床医が理解可能な分類説明を生成する手法を開発した。
臨床医が患者と対話する際の専門知識をどのように頼っているかに触発され、関連する臨床知識を活用して患者の入力をモデル化する。
うつ病の診断に臨床実習ガイドライン(CPG)を用いてメンタルヘルス(MH)の文脈でこのようなシステムを開発する。
論文 参考訳(メタデータ) (2023-11-23T08:42:18Z) - Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence [33.018873142559286]
本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
論文 参考訳(メタデータ) (2023-10-02T16:00:37Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Human Evaluation and Correlation with Automatic Metrics in Consultation
Note Generation [56.25869366777579]
近年,機械学習モデルによる臨床相談ノートの作成が急速に進んでいる。
5人の臨床医が57件のモック・コンサルテーションを聴き、自作のノートを書き、自動的に生成されたノートを編集し、全てのエラーを抽出する、広範囲にわたる人的評価研究を行った。
単純な文字ベースのLevenshtein距離測定は、BertScoreのような一般的なモデルベースの測定値に比較して、同等に動作します。
論文 参考訳(メタデータ) (2022-04-01T14:04:16Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z) - Where's the Question? A Multi-channel Deep Convolutional Neural Network
for Question Identification in Textual Data [83.89578557287658]
本稿では,実際の質問を分離する目的で,新しい多チャンネル深層畳み込みニューラルネットワークアーキテクチャであるQuest-CNNを提案する。
提案するニューラルネットワークと他のディープニューラルネットワークの総合的な性能比較分析を行った。
提案したQuest-CNNは、透析ケア設定におけるデータエントリレビュー対話のデータセットと一般的なドメインデータセットの両方において、最高のF1スコアを達成した。
論文 参考訳(メタデータ) (2020-10-15T15:11:22Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。