論文の概要: Learning Better Contrastive View from Radiologist's Gaze
- arxiv url: http://arxiv.org/abs/2305.08826v1
- Date: Mon, 15 May 2023 17:34:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 13:28:37.531517
- Title: Learning Better Contrastive View from Radiologist's Gaze
- Title(参考訳): 放射線医の視線からより良いコントラストビューを学ぶ
- Authors: Sheng Wang, Zixu Zhuang, Xi Ouyang, Lichi Zhang, Zheren Li, Chong Ma,
Tianming Liu, Dinggang Shen, Qian Wang
- Abstract要約: 診断における放射線技師の視線から学び,医用画像のコントラストビューを生成するための,新たな拡張手法であるFocusContrastを提案する。
具体的には、放射線医の視線の動きを追跡し、X線画像の読影時の視覚的注意をモデル化する。
プラグアンドプレイモジュールとして、FocusContrastは膝X線データセットの分類精度を4.07.0%改善した。
- 参考スコア(独自算出の注目度): 45.55702035003462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent self-supervised contrastive learning methods greatly benefit from the
Siamese structure that aims to minimizing distances between positive pairs.
These methods usually apply random data augmentation to input images, expecting
the augmented views of the same images to be similar and positively paired.
However, random augmentation may overlook image semantic information and
degrade the quality of augmented views in contrastive learning. This issue
becomes more challenging in medical images since the abnormalities related to
diseases can be tiny, and are easy to be corrupted (e.g., being cropped out) in
the current scheme of random augmentation. In this work, we first demonstrate
that, for widely-used X-ray images, the conventional augmentation prevalent in
contrastive pre-training can affect the performance of the downstream diagnosis
or classification tasks. Then, we propose a novel augmentation method, i.e.,
FocusContrast, to learn from radiologists' gaze in diagnosis and generate
contrastive views for medical images with guidance from radiologists' visual
attention. Specifically, we track the gaze movement of radiologists and model
their visual attention when reading to diagnose X-ray images. The learned model
can predict visual attention of the radiologists given a new input image, and
further guide the attention-aware augmentation that hardly neglects the
disease-related abnormalities. As a plug-and-play and framework-agnostic
module, FocusContrast consistently improves state-of-the-art contrastive
learning methods of SimCLR, MoCo, and BYOL by 4.0~7.0% in classification
accuracy on a knee X-ray dataset.
- Abstract(参考訳): 最近の自己指導型コントラスト学習手法は, 正の対の距離を最小化することを目的とした, シームズ構造から大きな恩恵を受けている。
これらの手法は通常、入力された画像にランダムなデータ拡張を適用し、同じ画像の拡張ビューが類似し、ポジティブにペアリングされることを期待する。
しかし、ランダムな拡張は、画像の意味情報を見落とし、コントラスト学習における拡張ビューの品質を低下させる可能性がある。
この問題は、疾患に関連する異常が小さくなり、現在のランダムな増量計画において腐敗しやすい(例えば、切り抜かれやすい)ため、医療画像においてより困難になる。
本研究は,広く使用されているx線画像に対して,コントラスト前訓練で一般的な拡張が下流診断や分類作業に影響を及ぼすことを最初に示す。
そこで我々は,放射線医の診断における視線から学び,医用画像に対する対照的な視点を,放射線医の視覚的注意から導き出すための新しい拡張手法であるFocusContrastを提案する。
具体的には,放射線科医の視線運動を追跡し,x線画像の読解時の視覚的注意をモデル化する。
学習モデルは、新しい入力画像が与えられた放射線科医の視覚的注意を予測でき、さらに、疾患に関連した異常をほとんど無視しない注意注意強化を導くことができる。
プラグインとフレームワークに依存しないモジュールとして、FocusContrastは膝X線データセットの分類精度を4.0~7.0%改善した。
関連論文リスト
- View it like a radiologist: Shifted windows for deep learning
augmentation of CT images [11.902593645631034]
我々は,CT画像の評価において,複数のビューイングウインドウをどのように活用するかに着想を得た,新しい前処理と強度増強手法を提案する。
提案手法は,学習中の関心領域の周囲に窓をランダムに配置する。
コントラスト造影剤が不十分な画像における肝病変のセグメンテーション性能とロバスト性を向上させる。
論文 参考訳(メタデータ) (2023-11-25T10:28:08Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Exploring Image Augmentations for Siamese Representation Learning with
Chest X-Rays [0.8808021343665321]
胸部X線異常検出のためのシームズネットワークの訓練と評価を行った。
我々は、アウト・オブ・ディストリビューションデータと病気の両方によく一般化する堅牢な表現をもたらす拡張の集合を同定する。
論文 参考訳(メタデータ) (2023-01-30T03:42:02Z) - Artificial Intelligence for Automatic Detection and Classification
Disease on the X-Ray Images [0.0]
本研究では,Deep Learning Pre-trained RepVGGアルゴリズムを用いて肺疾患の迅速検出を行う。
我々は、人の肺の患部の自動ハイライト検出に人工知能技術を適用している。
論文 参考訳(メタデータ) (2022-11-14T03:51:12Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Cross Chest Graph for Disease Diagnosis with Structural Relational
Reasoning [2.7148274921314615]
X線画像のコンピュータ診断において位置病変は重要である。
一般に弱教師付き手法はX線像の特性を考慮できなかった。
自動病変検出の性能を向上させるCross-chest Graph (CCG)を提案する。
論文 参考訳(メタデータ) (2021-01-22T08:24:04Z) - Dynamic Graph Correlation Learning for Disease Diagnosis with Incomplete
Labels [66.57101219176275]
胸部X線画像上の疾患診断は,多ラベル分類の課題である。
本稿では,異なる疾患間の相互依存を調査する新たな視点を提示する病的診断グラフ畳み込みネットワーク(DD-GCN)を提案する。
本手法は,相関学習のための動的隣接行列を用いた特徴写像上のグラフを初めて構築する手法である。
論文 参考訳(メタデータ) (2020-02-26T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。