論文の概要: Exploring Image Augmentations for Siamese Representation Learning with
Chest X-Rays
- arxiv url: http://arxiv.org/abs/2301.12636v2
- Date: Mon, 10 Jul 2023 18:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 19:00:00.938780
- Title: Exploring Image Augmentations for Siamese Representation Learning with
Chest X-Rays
- Title(参考訳): 胸部X線を用いたシームズ表現学習のための画像強化の検討
- Authors: Rogier van der Sluijs, Nandita Bhaskhar, Daniel Rubin, Curtis
Langlotz, Akshay Chaudhari
- Abstract要約: 胸部X線異常検出のためのシームズネットワークの訓練と評価を行った。
我々は、アウト・オブ・ディストリビューションデータと病気の両方によく一般化する堅牢な表現をもたらす拡張の集合を同定する。
- 参考スコア(独自算出の注目度): 0.8808021343665321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image augmentations are quintessential for effective visual representation
learning across self-supervised learning techniques. While augmentation
strategies for natural imaging have been studied extensively, medical images
are vastly different from their natural counterparts. Thus, it is unknown
whether common augmentation strategies employed in Siamese representation
learning generalize to medical images and to what extent. To address this
challenge, in this study, we systematically assess the effect of various
augmentations on the quality and robustness of the learned representations. We
train and evaluate Siamese Networks for abnormality detection on chest X-Rays
across three large datasets (MIMIC-CXR, CheXpert and VinDR-CXR). We investigate
the efficacy of the learned representations through experiments involving
linear probing, fine-tuning, zero-shot transfer, and data efficiency. Finally,
we identify a set of augmentations that yield robust representations that
generalize well to both out-of-distribution data and diseases, while
outperforming supervised baselines using just zero-shot transfer and linear
probes by up to 20%. Our code is available at
https://github.com/StanfordMIMI/siaug.
- Abstract(参考訳): 画像強化は、自己教師付き学習技術における効果的な視覚的表現学習に不可欠である。
自然画像の増強戦略は広く研究されているが、医療画像は自然画像とは大きく異なる。
このようにして、シャム語表現学習で用いられる共通の強化戦略が、医学的イメージにどの程度一般化するかは不明である。
この課題に対処するために,本研究では,学習した表現の質と堅牢性に対する様々な拡張の効果を体系的に評価する。
3つの大データセット(MIMIC-CXR, CheXpert, VinDR-CXR)にまたがる胸部X線異常検出のためのシームズネットワークの訓練と評価を行った。
線形探索,微調整,ゼロショット転送,データ効率などの実験により,学習表現の有効性を検討した。
最後に,ゼロショットトランスファーと線形プローブを用いた教師ありベースラインを最大20%上回りながら,分散データと疾患の両方によく適合するロバスト表現を導出する拡張集合を同定した。
私たちのコードはhttps://github.com/stanfordmimi/siaugで入手できます。
関連論文リスト
- X-Transfer: A Transfer Learning-Based Framework for GAN-Generated Fake
Image Detection [33.31312811230408]
顔置換などの偽画像を生成するためにGANを誤用することは、重大なセキュリティ上の懸念を引き起こす。
本稿では,新しい画像検出アルゴリズムであるX-Transferを提案する。
インターリーブされた並列勾配伝送を利用する2つのニューラルネットワークを利用することで、トランスファーラーニングを強化する。
論文 参考訳(メタデータ) (2023-10-07T01:23:49Z) - Learning Better Contrastive View from Radiologist's Gaze [45.55702035003462]
診断における放射線技師の視線から学び,医用画像のコントラストビューを生成するための,新たな拡張手法であるFocusContrastを提案する。
具体的には、放射線医の視線の動きを追跡し、X線画像の読影時の視覚的注意をモデル化する。
プラグアンドプレイモジュールとして、FocusContrastは膝X線データセットの分類精度を4.07.0%改善した。
論文 参考訳(メタデータ) (2023-05-15T17:34:49Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - RGMIM: Region-Guided Masked Image Modeling for Learning Meaningful Representations from X-Ray Images [49.24576562557866]
X線画像から意味のある表現を学習するための領域誘導マスク画像モデリング(RGMIM)を提案する。
RGMIMは、トレーニングセットの5%や10%といった小さなデータボリュームのパフォーマンスを、他の方法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2022-11-01T07:41:03Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Self-supervised Learning from 100 Million Medical Images [13.958840691105992]
コントラスト学習とオンライン特徴クラスタリングに基づく,リッチな画像特徴の自己教師付き学習手法を提案する。
我々は,X線撮影,CT,MRI,超音波など,様々なモードの医療画像10万枚を超える大規模なトレーニングデータセットを活用している。
本稿では,X線撮影,CT,MRにおける画像評価の課題に対して,この戦略の多くの利点を強調した。
論文 参考訳(メタデータ) (2022-01-04T18:27:04Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Imbalance-Aware Self-Supervised Learning for 3D Radiomic Representations [5.750111443935516]
3d siameseネットワークを用いて,自己教師あり方式で画像表現の学習方法を示す。
MRIおよびCT撮影法を用いた脳腫瘍分類と肺癌のステージング作業において有意な改善がみられた。
論文 参考訳(メタデータ) (2021-03-06T18:17:03Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。