論文の概要: Rethinking Radiology Report Generation via Causal Inspired Counterfactual Augmentation
- arxiv url: http://arxiv.org/abs/2311.13307v3
- Date: Tue, 30 Jul 2024 16:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 22:39:45.216127
- Title: Rethinking Radiology Report Generation via Causal Inspired Counterfactual Augmentation
- Title(参考訳): 因果関係改善による放射線学報告の再考
- Authors: Xiao Song, Jiafan Liu, Yun Li, Yan Liu, Wenbin Lei, Ruxin Wang,
- Abstract要約: 放射線医学報告生成(RRG)は、生体医学分野の視覚・言語相互作用として注目されている。
従来の言語生成タスクのイデオロギーは、レポートとして高い可読性を持つ段落を生成することを目的として、従来の言語生成タスクのイデオロギーを継承した。
RRGの特定の性質である病気間の独立性は無視され、偏りのあるデータ分布によって引き起こされる病気の共起によってモデルが混乱する結果となった。
- 参考スコア(独自算出の注目度): 11.266364967223556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiology Report Generation (RRG) draws attention as a vision-and-language interaction of biomedical fields. Previous works inherited the ideology of traditional language generation tasks, aiming to generate paragraphs with high readability as reports. Despite significant progress, the independence between diseases-a specific property of RRG-was neglected, yielding the models being confused by the co-occurrence of diseases brought on by the biased data distribution, thus generating inaccurate reports. In this paper, to rethink this issue, we first model the causal effects between the variables from a causal perspective, through which we prove that the co-occurrence relationships between diseases on the biased distribution function as confounders, confusing the accuracy through two backdoor paths, i.e. the Joint Vision Coupling and the Conditional Sequential Coupling. Then, we proposed a novel model-agnostic counterfactual augmentation method that contains two strategies, i.e. the Prototype-based Counterfactual Sample Synthesis (P-CSS) and the Magic-Cube-like Counterfactual Report Reconstruction (Cube), to intervene the backdoor paths, thus enhancing the accuracy and generalization of RRG models. Experimental results on the widely used MIMIC-CXR dataset demonstrate the effectiveness of our proposed method. Additionally, a generalization performance is evaluated on IU X-Ray dataset, which verifies our work can effectively reduce the impact of co-occurrences caused by different distributions on the results.
- Abstract(参考訳): 放射線医学報告生成(RRG)は、生体医学分野の視覚・言語相互作用として注目されている。
従来の言語生成タスクのイデオロギーは、レポートとして高い可読性を持つ段落を生成することを目的として、従来の言語生成タスクのイデオロギーを継承した。
大きな進歩にもかかわらず、RRGの特定の性質である疾患間の独立性は無視され、バイアスデータ分布によって引き起こされる疾患の共起によってモデルが混乱し、不正確な報告が生み出された。
本稿では,本問題を再考するため,まず因果的観点から変数間の因果関係をモデル化し,偏りのある分布関数上の疾患間の共起関係が共同創設者であることを示す。
そこで我々は,P-CSS (Prototype-based Counterfactual Sample Synthesis) とMagic-Cube-like Counterfactual Report Reconstruction (Cube) の2つの戦略を含むモデル非依存の反現実的拡張手法を提案し,RRGモデルの精度と一般化を高めた。
提案手法の有効性を示すMIMIC-CXRデータセットの実験的検討を行った。
さらに、IU X-Rayデータセット上での一般化性能を評価し、その結果に異なる分布による共起の影響を効果的に低減できることを示した。
関連論文リスト
- Generative Intervention Models for Causal Perturbation Modeling [80.72074987374141]
多くの応用において、システムのメカニズムが外部の摂動によって変更されるかは未定である。
本稿では、これらの摂動特徴を原子間干渉による分布にマッピングする方法を学習する生成的介入モデル(GIM)を提案する。
論文 参考訳(メタデータ) (2024-11-21T10:37:57Z) - Targeted Cause Discovery with Data-Driven Learning [66.86881771339145]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータの教師あり学習を通じて因果関係を特定するために訓練されたニューラルネットワークを用いる。
大規模遺伝子制御ネットワークにおける因果関係の同定における本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - ICON: Improving Inter-Report Consistency in Radiology Report Generation via Lesion-aware Mixup Augmentation [14.479606737135045]
我々は,放射線学レポート生成のレポート間一貫性を改善するICONを提案する。
まず,入力画像から病変を抽出し,その特徴について検討する。
次に, 意味論的に等価な病変の表現が同一の属性と一致することを確実にするために, 病変認識ミックスアップ手法を導入する。
論文 参考訳(メタデータ) (2024-02-20T09:13:15Z) - De-confounding Representation Learning for Counterfactual Inference on
Continuous Treatment via Generative Adversarial Network [5.465397606401007]
実世界の因果推論タスクでは、二項処理変数よりも連続的な因果推論の方が一般的である。
本稿では,連続処理の現実的結果推定のための分散表現学習(DRL)フレームワークを提案する。
DRLモデルは,非衝突表現の学習において優れた性能を示し,連続処理変数に対する最先端の反実的推論モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-24T08:56:25Z) - Brain Imaging-to-Graph Generation using Adversarial Hierarchical Diffusion Models for MCI Causality Analysis [44.45598796591008]
機能的磁気共鳴画像(fMRI)を軽度認知障害解析のための効果的な接続性にマッピングするために,脳画像から画像へのBIGG(Brain Imaging-to-graph generation)フレームワークを提案する。
発電機の階層変換器は、複数のスケールでノイズを推定するように設計されている。
ADNIデータセットの評価は,提案モデルの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-05-18T06:54:56Z) - Cross-Modal Causal Intervention for Medical Report Generation [109.83549148448469]
医療報告生成(MRG)は、コンピュータ支援診断と治療指導に不可欠である。
視覚的および言語的バイアスによって引き起こされる画像テキストデータ内の素早い相関のため、病変領域を確実に記述した正確なレポートを生成することは困難である。
本稿では,視覚分解モジュール (VDM) と言語分解モジュール (LDM) からなるMRGのための新しい視覚言語因果干渉 (VLCI) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - BCDAG: An R package for Bayesian structure and Causal learning of
Gaussian DAGs [77.34726150561087]
観測データから因果関係の発見と因果関係を推定するためのRパッケージを提案する。
我々の実装は、観測回数とともに効率的にスケールし、DAGが十分にスパースであるたびに、データセット内の変数の数を削減します。
次に、実際のデータセットとシミュレーションデータセットの両方で、主な機能とアルゴリズムを説明します。
論文 参考訳(メタデータ) (2022-01-28T09:30:32Z) - Harmonization with Flow-based Causal Inference [12.739380441313022]
本稿では, 医療データを調和させる構造因果モデル (SCM) に対して, 反実的推論を行う正規化フローに基づく手法を提案する。
我々は,この手法が最先端のアルゴリズムよりもドメイン間一般化に寄与することを示すために,複数の,大規模な実世界の医療データセットを評価した。
論文 参考訳(メタデータ) (2021-06-12T19:57:35Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - Causal discovery of linear non-Gaussian acyclic models in the presence
of latent confounders [6.1221613913018675]
本稿では,反復因果探索 (RCD) と呼ばれる因果関数モデルに基づく手法を提案する。
RCDは、少数の観測変数間で因果方向を推論し、その関係が潜伏した共同設立者の影響を受けているかどうかを判定する。
論文 参考訳(メタデータ) (2020-01-13T12:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。