論文の概要: Generalized Radiograph Representation Learning via Cross-supervision
between Images and Free-text Radiology Reports
- arxiv url: http://arxiv.org/abs/2111.03452v1
- Date: Thu, 4 Nov 2021 14:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 05:03:53.175321
- Title: Generalized Radiograph Representation Learning via Cross-supervision
between Images and Free-text Radiology Reports
- Title(参考訳): 画像と自由テキストラジオグラフィーレポートの相互比較による一般化ラジオグラフィ表現学習
- Authors: Hong-Yu Zhou, Xiaoyu Chen, Yinghao Zhang, Ruibang Luo, Liansheng Wang,
Yizhou Yu
- Abstract要約: 事前学習は、深層学習に支えられたラジオグラフィ解析における最近の成功の基礎を成している。
本稿では,Reviewing FreE-text Reports for Supervision (REFERS) という相互監督手法を提案する。
REFERSは、非常に限られた監督の下で、4つのよく知られたX線データセット上で、トランスファーラーニングと自己教師付き学習よりも優れています。
- 参考スコア(独自算出の注目度): 40.42674870179363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-training lays the foundation for recent successes in radiograph analysis
supported by deep learning. It learns transferable image representations by
conducting large-scale fully-supervised or self-supervised learning on a source
domain. However, supervised pre-training requires a complex and labor intensive
two-stage human-assisted annotation process while self-supervised learning
cannot compete with the supervised paradigm. To tackle these issues, we propose
a cross-supervised methodology named REviewing FreE-text Reports for
Supervision (REFERS), which acquires free supervision signals from original
radiology reports accompanying the radiographs. The proposed approach employs a
vision transformer and is designed to learn joint representations from multiple
views within every patient study. REFERS outperforms its transfer learning and
self-supervised learning counterparts on 4 well-known X-ray datasets under
extremely limited supervision. Moreover, REFERS even surpasses methods based on
a source domain of radiographs with human-assisted structured labels. Thus
REFERS has the potential to replace canonical pre-training methodologies.
- Abstract(参考訳): 事前学習は、深層学習に支えられたラジオグラフィ解析における最近の成功の基礎を成している。
ソースドメイン上で大規模な完全教師付きあるいは自己教師型学習を行うことで、転送可能な画像表現を学習する。
しかし、教師付き事前学習には複雑で労働集約的な2段階の人間支援アノテーションプロセスが必要である。
これらの問題に対処するために,我々は,ラジオグラフに付随する放射線学的レポートからフリーテキストレポートを取得するrefers (free-text reports for supervision) というクロス監督手法を提案する。
提案手法は視覚トランスフォーマーを用い, 患者研究における複数視点からの共同表現を学習する。
参照は、非常に限られた監督下で4つの有名なx線データセット上の転送学習と自己教師付き学習を上回っている。
さらに、REFERSは、人手による構造化ラベルを持つラジオグラフィーのソースドメインに基づく手法を超越している。
したがって、REFERSは標準的な事前学習手法を置き換える可能性がある。
関連論文リスト
- RadCLIP: Enhancing Radiologic Image Analysis through Contrastive Language-Image Pre-training [0.1398098625978622]
RadCLIP(Radlogic Contrastive Language- Image Pre-Training)は、Vision Language Pre-Trainingフレームワークを利用した視覚言語基礎モデルである。
RadCLIPは、放射線画像と対応するテキストアノテーションを合わせるために事前訓練され、放射線画像のための堅牢な視覚バックボーンを形成した。
主なコントリビューションは,多種多様なラジオロジックな2D/3D画像テキストペアを用いた大規模データセットのキュレーション,2D画像の統合のための注意機構を用いたスライスプールアダプタ,および様々なラジオロジック下流タスクにおけるRadCLIPの総合評価である。
論文 参考訳(メタデータ) (2024-03-15T01:18:08Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts [63.30352394004674]
MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
論文 参考訳(メタデータ) (2023-10-03T12:19:19Z) - Local Contrastive Learning for Medical Image Recognition [0.0]
Local Region Contrastive Learning(LRCLR)は、画像領域の選択と相互モダリティの相互作用のためのレイヤを追加するフレキシブルな微調整フレームワークである。
胸部X線検査の結果から,LRCLRは重要な局所画像領域を同定し,放射線学的テキストに対して有意義な解釈を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2023-03-24T17:04:26Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - A Multisite, Report-Based, Centralized Infrastructure for Feedback and
Monitoring of Radiology AI/ML Development and Clinical Deployment [0.0]
インタラクティブな放射線学報告手法は、画像の視聴、予測、自然言語処理(NLP)、および画像発見とレポート間のハイパーリンクの生成を統合する。
これらのイメージとラベルは、クラウドベースのシステムでキャプチャして集中することができる。
本手法は, 市販後監視および外部データに対する規制要件に対処する。
論文 参考訳(メタデータ) (2020-08-31T17:59:04Z) - Joint Modeling of Chest Radiographs and Radiology Reports for Pulmonary
Edema Assessment [39.60171837961607]
我々は,胸部X線写真から肺浮腫の重症度を評価するために,画像と自由テキストの両方で訓練されたニューラルネットワークモデルを開発した。
実験結果から,共同画像・テキスト表現学習は肺浮腫評価の性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2020-08-22T17:28:39Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。