論文の概要: ICON: Improving Inter-Report Consistency of Radiology Report Generation
via Lesion-aware Mix-up Augmentation
- arxiv url: http://arxiv.org/abs/2402.12844v1
- Date: Tue, 20 Feb 2024 09:13:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 16:08:15.070251
- Title: ICON: Improving Inter-Report Consistency of Radiology Report Generation
via Lesion-aware Mix-up Augmentation
- Title(参考訳): ICON:Mix-Aware Augmentationによる放射線学レポート作成のレポート間一貫性の向上
- Authors: Wenjun Hou, Yi Cheng, Kaishuai Xu, Yan Hu, Wenjie Li, Jiang Liu
- Abstract要約: 我々は,放射線学レポート生成のレポート間一貫性を改善するICONを提案する。
本手法は,入力画像からまず病変を抽出し,その特徴について検討する。
次に, 意味論的に等価な病変の表現が同一の属性と一致することを保証するために, 病変認識型ミックスアップ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 15.342820385162709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous research on radiology report generation has made significant
progress in terms of increasing the clinical accuracy of generated reports. In
this paper, we emphasize another crucial quality that it should possess, i.e.,
inter-report consistency, which refers to the capability of generating
consistent reports for semantically equivalent radiographs. This quality is
even of greater significance than the overall report accuracy in terms of
ensuring the system's credibility, as a system prone to providing conflicting
results would severely erode users' trust. Regrettably, existing approaches
struggle to maintain inter-report consistency, exhibiting biases towards common
patterns and susceptibility to lesion variants. To address this issue, we
propose ICON, which improves the inter-report consistency of radiology report
generation. Aiming at enhancing the system's ability to capture the
similarities in semantically equivalent lesions, our approach involves first
extracting lesions from input images and examining their characteristics. Then,
we introduce a lesion-aware mix-up augmentation technique to ensure that the
representations of the semantically equivalent lesions align with the same
attributes, by linearly interpolating them during the training phase. Extensive
experiments on three publicly available chest X-ray datasets verify the
effectiveness of our approach, both in terms of improving the consistency and
accuracy of the generated reports.
- Abstract(参考訳): 放射線学報告生成に関するこれまでの研究は, 臨床報告の精度を高めるという点で大きな進歩を遂げている。
本稿では,セマンティクス的に等価なラジオグラフに対して一貫性のあるレポートを生成する能力を指す,レポート間一貫性という,別の重要な品質を強調する。
この品質は、システムの信頼性を保証するという点で、全体のレポートの正確さよりもさらに重要である。
既存のアプローチは、レポート間の一貫性を維持するのに苦労し、共通のパターンへのバイアスを示し、病変の変異への感受性を示す。
この問題に対処するために,放射線学レポート生成のレポート間の整合性を改善するICONを提案する。
意味的に等価な病変の類似性を捉えるシステムの能力向上を目指して,まず入力画像から病変を抽出し,その特徴を調べる。
次に, 意味論的に等価な病変の表現が同一属性と整合することを保証するために, トレーニング期間中に線形に補間することにより, 病変認識型ミックスアップ拡張手法を導入する。
3つの公開胸部X線データセットによる広範囲な実験により, 得られた報告の整合性と精度の両面で, アプローチの有効性が検証された。
関連論文リスト
- Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Synchronous Faithfulness Monitoring for Trustworthy Retrieval-Augmented Generation [96.78845113346809]
Retrieval-augmented Language Model (RALMs) は、知識集約型タスクにおいて、高い性能と幅広い適用性を示している。
本稿では,非偽文の検出に微細な復号力学を利用する軽量モニタであるSynCheckを提案する。
また、長文検索拡張生成のためのビームサーチによって導かれる忠実度指向の復号アルゴリズムであるFODを導入する。
論文 参考訳(メタデータ) (2024-06-19T16:42:57Z) - Rethinking Radiology Report Generation via Causal Inspired Counterfactual Augmentation [11.266364967223556]
放射線医学報告生成(RRG)は、生体医学分野の視覚・言語相互作用として注目されている。
従来の言語生成タスクのイデオロギーは、レポートとして高い可読性を持つ段落を生成することを目的として、従来の言語生成タスクのイデオロギーを継承した。
RRGの特定の性質である病気間の独立性は無視され、偏りのあるデータ分布によって引き起こされる病気の共起によってモデルが混乱する結果となった。
論文 参考訳(メタデータ) (2023-11-22T10:55:36Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - A Self-Guided Framework for Radiology Report Generation [10.573538773141715]
SGF(Self-Guided framework)は、注釈付き疾患ラベルによる医療報告を生成するために開発されたフレームワークである。
SGFは、人間の学習と執筆の過程を模倣するために、教師なしおよび教師なしのディープラーニング手法を使用している。
提案手法は,単語間の細粒度視覚的詳細を識別するためのフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2022-06-19T11:09:27Z) - Weakly Supervised Contrastive Learning for Chest X-Ray Report Generation [3.3978173451092437]
放射線画像から記述テキストを自動的に生成することを目的とした放射線学レポート生成。
典型的な設定は、エンコーダとデコーダのモデルを、クロスエントロピー損失のあるイメージレポートペアでトレーニングする。
本稿では,医療報告生成におけるコントラスト損失の弱化について提案する。
論文 参考訳(メタデータ) (2021-09-25T00:06:23Z) - Confidence-Guided Radiology Report Generation [24.714303916431078]
本稿では,放射線学レポート作成作業における視覚的不確実性とテキスト的不確実性の両方を定量化する手法を提案する。
実験結果から, モデル不確実性評価と推定のための提案手法が, ラジオロジーレポート生成の信頼性向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-06-21T07:02:12Z) - Improving Factual Completeness and Consistency of Image-to-Text
Radiology Report Generation [26.846912996765447]
我々は,事実的完全かつ一貫した放射線学報告の創出を促進するために,新たな2つの簡単な報奨制度を導入する。
私たちのシステムでは,ベースラインよりも現実的に完全で一貫性のある世代が生まれることが示されています。
論文 参考訳(メタデータ) (2020-10-20T05:42:47Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。