論文の概要: Medical Knowledge-enriched Textual Entailment Framework
- arxiv url: http://arxiv.org/abs/2011.05257v1
- Date: Tue, 10 Nov 2020 17:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:22:31.210763
- Title: Medical Knowledge-enriched Textual Entailment Framework
- Title(参考訳): 医用知識に富んだテキスト・エンターメント・フレームワーク
- Authors: Shweta Yadav, Vishal Pallagani, Amit Sheth
- Abstract要約: 医用知識に富んだテキスト・エンタテインメント・フレームワークについて紹介する。
我々は、ベンチマークMEDIQA-RQEデータセット上でのフレームワークの評価を行い、知識の豊富な二重符号化機構を用いることで、SOTA言語モデルに対して8.27%の絶対的な改善が達成できることを示した。
- 参考スコア(独自算出の注目度): 5.493804101940195
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the cardinal tasks in achieving robust medical question answering
systems is textual entailment. The existing approaches make use of an ensemble
of pre-trained language models or data augmentation, often to clock higher
numbers on the validation metrics. However, two major shortcomings impede
higher success in identifying entailment: (1) understanding the focus/intent of
the question and (2) ability to utilize the real-world background knowledge to
capture the context beyond the sentence. In this paper, we present a novel
Medical Knowledge-Enriched Textual Entailment framework that allows the model
to acquire a semantic and global representation of the input medical text with
the help of a relevant domain-specific knowledge graph. We evaluate our
framework on the benchmark MEDIQA-RQE dataset and manifest that the use of
knowledge enriched dual-encoding mechanism help in achieving an absolute
improvement of 8.27% over SOTA language models. We have made the source code
available here.
- Abstract(参考訳): 堅牢な医療質問応答システムを実現するための基本的なタスクの1つは、テキストによる補足である。
既存のアプローチでは、事前訓練された言語モデルやデータ拡張のアンサンブルを使用して、検証メトリクスのより高い数値をクロックすることが多い。
しかし,(1)質問の焦点/意図を理解すること,(2)実世界の背景知識を活用して文章以外の文脈を捉えること,の2つの大きな欠点は,質問内容の特定において高い成功を妨げている。
本稿では,入力された医用テキストの意味的およびグローバルな表現を,関連するドメイン固有の知識グラフの助けを借りて獲得することのできる,新しい医用知識豊か化テクスチュアル・エンターメント・フレームワークを提案する。
我々は、ベンチマーク mediqa-rqe データセット上でフレームワークを評価し、知識強化されたデュアルエンコーディング機構が sota 言語モデルに対する8.27%の絶対的改善を達成するのに役立つことを示す。
ソースコードはここで公開しています。
関連論文リスト
- Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - Enhancing the vision-language foundation model with key semantic knowledge-emphasized report refinement [9.347971487478038]
本稿では,キーセマンティックな知識強調レポート改善手法を提案することで,新しい視覚言語表現学習フレームワークを開発する。
我々のフレームワークは、微調整とゼロショットの両方において、最先端の7つの手法を超越している。
論文 参考訳(メタデータ) (2024-01-21T07:57:04Z) - Enhancing Biomedical Lay Summarisation with External Knowledge Graphs [28.956500948255677]
そこで本研究では,知識グラフをレイ・サマリゼーション・モデルに組み込むための3つのアプローチの有効性について検討する。
この結果から,グラフベースのドメイン知識の統合は,生成したテキストの可読性を大幅に向上させることで,レイ・サマライズを著しく向上させることが可能であることが確認された。
論文 参考訳(メタデータ) (2023-10-24T10:25:21Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z) - Leveraging Visual Knowledge in Language Tasks: An Empirical Study on
Intermediate Pre-training for Cross-modal Knowledge Transfer [61.34424171458634]
視覚的知識を言語モデルに組み込むことがギャップを埋めるかどうかを検討する。
実験の結果,視覚的知識伝達は低リソース環境と完全教師付き環境の両方で性能を向上できることがわかった。
論文 参考訳(メタデータ) (2022-03-14T22:02:40Z) - A Practical Approach towards Causality Mining in Clinical Text using
Active Transfer Learning [2.6125458645126907]
因果関係マイニングは、最先端の自然言語処理技術の応用を必要とする活発な研究領域である。
この研究は、臨床テキストを因果知識に変換するフレームワークを作成することを目的としている。
論文 参考訳(メタデータ) (2020-12-10T06:51:13Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Learning Contextualized Document Representations for Healthcare Answer
Retrieval [68.02029435111193]
コンテキスト談話ベクトル(英: Contextual Discourse Vectors、CDV)は、長文からの効率的な回答検索のための分散文書表現である。
本モデルでは,階層型LSTMレイヤとマルチタスクトレーニングを併用したデュアルエンコーダアーキテクチャを用いて,臨床エンティティの位置と文書の談話に沿った側面をエンコードする。
我々の一般化モデルは、医療パスランキングにおいて、最先端のベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2020-02-03T15:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。