論文の概要: Dynamic Multi-Domain Knowledge Networks for Chest X-ray Report
Generation
- arxiv url: http://arxiv.org/abs/2310.05119v1
- Date: Sun, 8 Oct 2023 11:20:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 12:24:56.399498
- Title: Dynamic Multi-Domain Knowledge Networks for Chest X-ray Report
Generation
- Title(参考訳): 胸部X線レポート生成のための動的マルチドメイン知識ネットワーク
- Authors: Weihua Liu, Youyuan Xue, Chaochao Lin, Said Boumaraf
- Abstract要約: 放射線診断レポート生成のための動的マルチドメイン知識(DMDK)ネットワークを提案する。
DMDKネットワークは、Chest Feature Extractor(CFE), Dynamic Knowledge Extractor(DKE), Specific Knowledge Extractor(SKE), Multi-knowledge Integrator(MKI)モジュールの4つのモジュールで構成されている。
IU X-RayとMIMIC-CXRの2つの広く使われているデータセットについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 0.5939858158928474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The automated generation of radiology diagnostic reports helps radiologists
make timely and accurate diagnostic decisions while also enhancing clinical
diagnostic efficiency. However, the significant imbalance in the distribution
of data between normal and abnormal samples (including visual and textual
biases) poses significant challenges for a data-driven task like automatically
generating diagnostic radiology reports. Therefore, we propose a Dynamic
Multi-Domain Knowledge(DMDK) network for radiology diagnostic report
generation. The DMDK network consists of four modules: Chest Feature
Extractor(CFE), Dynamic Knowledge Extractor(DKE), Specific Knowledge
Extractor(SKE), and Multi-knowledge Integrator(MKI) module. Specifically, the
CFE module is primarily responsible for extracting the unprocessed visual
medical features of the images. The DKE module is responsible for extracting
dynamic disease topic labels from the retrieved radiology diagnostic reports.
We then fuse the dynamic disease topic labels with the original visual features
of the images to highlight the abnormal regions in the original visual features
to alleviate the visual data bias problem. The SKE module expands upon the
conventional static knowledge graph to mitigate textual data biases and amplify
the interpretability capabilities of the model via domain-specific dynamic
knowledge graphs. The MKI distills all the knowledge and generates the final
diagnostic radiology report. We performed extensive experiments on two widely
used datasets, IU X-Ray and MIMIC-CXR. The experimental results demonstrate the
effectiveness of our method, with all evaluation metrics outperforming previous
state-of-the-art models.
- Abstract(参考訳): 放射線診断レポートの自動生成は、放射線科医がタイムリーかつ正確な診断決定をし、臨床診断効率を向上するのに役立つ。
しかし、正常標本と異常標本(視覚バイアスとテキストバイアスを含む)の間のデータ分布の著しい不均衡は、診断放射線学的レポートの自動生成のようなデータ駆動タスクにとって大きな課題となる。
そこで我々は,放射線診断レポート生成のための動的マルチドメイン知識(DMDK)ネットワークを提案する。
DMDKネットワークは、Chest Feature Extractor(CFE), Dynamic Knowledge Extractor(DKE), Specific Knowledge Extractor(SKE), Multi-knowledge Integrator(MKI)モジュールの4つのモジュールで構成されている。
特に、cfeモジュールは、主に画像の未処理の視覚的医療的特徴を抽出する責任がある。
dkeモジュールは、検索された放射線診断レポートから動的疾患のトピックラベルを抽出する責任がある。
次に、動的疾患の話題ラベルを画像の本来の視覚特徴と融合させ、元の視覚特徴の異常領域を強調することで、視覚データのバイアス問題を緩和する。
skeモジュールは、従来の静的知識グラフを拡張して、テキストデータバイアスを軽減し、ドメイン固有の動的知識グラフを介してモデルの解釈能力を増幅する。
MKIはすべての知識を蒸留し、最終診断放射線学レポートを生成する。
IU X-RayとMIMIC-CXRの2つの広く使われているデータセットについて広範な実験を行った。
実験の結果,提案手法の有効性が示され,過去の最先端モデルよりも評価指標が優れていた。
関連論文リスト
- Toward Robust Early Detection of Alzheimer's Disease via an Integrated Multimodal Learning Approach [5.9091823080038814]
アルツハイマー病(英: Alzheimer's Disease、AD)は、記憶障害、執行機能障害、性格変化を特徴とする複雑な神経変性疾患である。
本研究では,臨床,認知,神経画像,脳波データを統合した高度なマルチモーダル分類モデルを提案する。
論文 参考訳(メタデータ) (2024-08-29T08:26:00Z) - HyperFusion: A Hypernetwork Approach to Multimodal Integration of Tabular and Medical Imaging Data for Predictive Modeling [4.44283662576491]
EHRの値と測定値に画像処理を条件付け,臨床画像と表層データを融合させるハイパーネットワークに基づく新しいフレームワークを提案する。
我々は, 単一モダリティモデルと最先端MRI-タブラルデータ融合法の両方に優れることを示す。
論文 参考訳(メタデータ) (2024-03-20T05:50:04Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - Cross-Modal Causal Intervention for Medical Report Generation [109.83549148448469]
医療報告生成(MRG)は、コンピュータ支援診断と治療指導に不可欠である。
視覚的および言語的バイアスによって引き起こされる画像テキストデータ内の素早い相関のため、病変領域を確実に記述した正確なレポートを生成することは困難である。
本稿では,視覚分解モジュール (VDM) と言語分解モジュール (LDM) からなるMRGのための新しい視覚言語因果干渉 (VLCI) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z) - Self adaptive global-local feature enhancement for radiology report
generation [10.958641951927817]
グローバル・解剖学的領域の特徴を動的に融合して多粒性放射線学レポートを生成する新しいフレームワーク AGFNet を提案する。
まず,入力胸部X線(CXR)の解剖学的特徴と大域的特徴を抽出する。
そして,領域の特徴とグローバルな特徴を入力として,提案した自己適応型核融合ゲートモジュールは動的に多粒性情報を融合することができる。
最後に、キャプション生成装置は、多粒性特徴により放射線学レポートを生成する。
論文 参考訳(メタデータ) (2022-11-21T11:50:42Z) - Attributed Abnormality Graph Embedding for Clinically Accurate X-Ray
Report Generation [7.118069629513661]
我々は、属性異常グラフ(ATAG)と呼ばれる、新しい微粒化知識グラフ構造を導入する。
ATAGは相互接続された異常ノードと属性ノードで構成されており、異常の詳細をより正確に把握することができる。
提案したATAG-based Deep ModelはSOTA法よりも大きなマージンで優れており, 得られた報告の臨床的精度を向上させることができる。
論文 参考訳(メタデータ) (2022-07-04T05:32:00Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。