論文の概要: Graph Enhanced Contrastive Learning for Radiology Findings Summarization
- arxiv url: http://arxiv.org/abs/2204.00203v1
- Date: Fri, 1 Apr 2022 04:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 12:57:50.239377
- Title: Graph Enhanced Contrastive Learning for Radiology Findings Summarization
- Title(参考訳): 放射線所見要約のためのグラフ強化コントラスト学習
- Authors: Jinpeng Hu, Zhuo Li, Zhihong Chen, Zhen Li, Xiang Wan, Tsung-Hui Chang
- Abstract要約: 放射線学レポートのセクションでは、この発見から最も顕著な観察を要約している。
余分な知識と元の知見の両方を活用する統一的なフレームワークを提案する。
キーワードとその関係を適切な方法で抽出し、印象生成を容易にする。
- 参考スコア(独自算出の注目度): 25.377658879658306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The impression section of a radiology report summarizes the most prominent
observation from the findings section and is the most important section for
radiologists to communicate to physicians. Summarizing findings is
time-consuming and can be prone to error for inexperienced radiologists, and
thus automatic impression generation has attracted substantial attention. With
the encoder-decoder framework, most previous studies explore incorporating
extra knowledge (e.g., static pre-defined clinical ontologies or extra
background information). Yet, they encode such knowledge by a separate encoder
to treat it as an extra input to their models, which is limited in leveraging
their relations with the original findings. To address the limitation, we
propose a unified framework for exploiting both extra knowledge and the
original findings in an integrated way so that the critical information (i.e.,
key words and their relations) can be extracted in an appropriate way to
facilitate impression generation. In detail, for each input findings, it is
encoded by a text encoder, and a graph is constructed through its entities and
dependency tree. Then, a graph encoder (e.g., graph neural networks (GNNs)) is
adopted to model relation information in the constructed graph. Finally, to
emphasize the key words in the findings, contrastive learning is introduced to
map positive samples (constructed by masking non-key words) closer and push
apart negative ones (constructed by masking key words). The experimental
results on OpenI and MIMIC-CXR confirm the effectiveness of our proposed
method.
- Abstract(参考訳): 放射線学報告の印象部は、発見部からの最も顕著な観察を要約し、放射線医が医師に伝える上で最も重要な部分である。
要約所見は時間を要するため,未経験の放射線技師の誤診が少なく,自動印象生成が注目されている。
エンコーダ-デコーダフレームワークによって、これまでのほとんどの研究は、追加の知識(例えば、静的事前定義された臨床オントロジーや追加の背景情報)を取り入れることを検討している。
しかし、これらの知識を別のエンコーダによって符号化し、モデルへの追加入力として扱うことで、元の発見との関係を活用できる。
この制限に対処するために、重要な情報(キーワードとその関係)を適切な方法で抽出し、印象生成を容易にするために、余分な知識と元の知見の両方を統合的に活用するための統一的な枠組みを提案する。
詳細は、各入力結果について、テキストエンコーダによってエンコードされ、そのエンティティと依存ツリーを通してグラフが構築される。
次に、構築したグラフ内の関係情報をモデル化するためにグラフエンコーダ(例えば、グラフニューラルネットワーク(gnns))を採用する。
最後に, キーワードを強調するために, 正のサンプル(非キーワードをマスキングして構成)をより近くにマッピングし, 負のサンプル(キーワードをマスキングして構成)を分割する。
openi および mimic-cxr を用いた実験により,提案手法の有効性を確認した。
関連論文リスト
- KiUT: Knowledge-injected U-Transformer for Radiology Report Generation [10.139767157037829]
X線画像から臨床的正確で一貫性のある段落を自動的に生成することを目的とする。
知識注入型U-Transformer (KiUT) を提案する。
論文 参考訳(メタデータ) (2023-06-20T07:27:28Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Cross-modal Memory Networks for Radiology Report Generation [30.13916304931662]
ラジオロジーレポート生成のためのエンコーダデコーダフレームワークを強化するために,クロスモーダルメモリネットワーク(CMN)を提案する。
本モデルでは,放射線画像やテキストからの情報の整合性が向上し,臨床指標の精度向上に寄与する。
論文 参考訳(メタデータ) (2022-04-28T02:32:53Z) - Word Graph Guided Summarization for Radiology Findings [24.790502861602075]
そこで本研究では, 単語グラフを抽出し, 単語とその関係を自動印象生成する手法を提案する。
WGSum(Word Graph guided Summarization model)は、単語グラフの助けを借りて印象を生成するように設計されている。
OpenIとMIMIC-CXRの2つのデータセットによる実験結果から,提案手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2021-12-18T13:20:18Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - SumGNN: Multi-typed Drug Interaction Prediction via Efficient Knowledge
Graph Summarization [64.56399911605286]
本稿では,サブグラフ抽出モジュールによって実現された知識要約グラフニューラルネットワークSumGNNを提案する。
SumGNNは5.54%まで最高のベースラインを上回り、データ関係の低いタイプでは特にパフォーマンスの向上が顕著である。
論文 参考訳(メタデータ) (2020-10-04T00:14:57Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。