論文の概要: Learning to segment with limited annotations: Self-supervised
pretraining with regression and contrastive loss in MRI
- arxiv url: http://arxiv.org/abs/2205.13109v1
- Date: Thu, 26 May 2022 02:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 12:38:29.123095
- Title: Learning to segment with limited annotations: Self-supervised
pretraining with regression and contrastive loss in MRI
- Title(参考訳): 限定アノテーションによるセグメンテーションの学習:MRIにおける回帰と対照的な損失を伴う自己教師付き事前訓練
- Authors: Lavanya Umapathy, Zhiyang Fu, Rohit Philip, Diego Martin, Maria
Altbach, Ali Bilgin
- Abstract要約: ディープラーニングモデルを駆動し、異なる表現を学習するための事前学習アプローチを2つ検討する。
磁気共鳴(MR)画像を用いた2つの下流セグメンテーションアプリケーションにおいて,プレトレーニング手法の効果を評価する。
我々は,ラベル付きデータセットが少ない場合に,自己スーパービジョンを用いて事前訓練したDLモデルを同等の性能で微調整できることを示した。
- 参考スコア(独自算出の注目度): 1.419070105368302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Obtaining manual annotations for large datasets for supervised training of
deep learning (DL) models is challenging. The availability of large unlabeled
datasets compared to labeled ones motivate the use of self-supervised
pretraining to initialize DL models for subsequent segmentation tasks. In this
work, we consider two pre-training approaches for driving a DL model to learn
different representations using: a) regression loss that exploits spatial
dependencies within an image and b) contrastive loss that exploits semantic
similarity between pairs of images. The effect of pretraining techniques is
evaluated in two downstream segmentation applications using Magnetic Resonance
(MR) images: a) liver segmentation in abdominal T2-weighted MR images and b)
prostate segmentation in T2-weighted MR images of the prostate. We observed
that DL models pretrained using self-supervision can be finetuned for
comparable performance with fewer labeled datasets. Additionally, we also
observed that initializing the DL model using contrastive loss based
pretraining performed better than the regression loss.
- Abstract(参考訳): ディープラーニング(DL)モデルの教師ありトレーニングのための大規模なデータセットのための手動アノテーションの取得は難しい。
ラベル付きデータセットとラベル付きデータセットの比較により、dlモデルを初期化するために自己教師付き事前トレーニングを使用するモチベーションが向上した。
本稿では,DLモデルを駆動する2つの事前学習手法について考察する。
a)画像内の空間的依存関係を利用した回帰損失
b)画像のペア間の意味的類似性を利用する対比的損失。
磁気共鳴(MR)画像を用いた2つの下流セグメンテーションアプリケーションにおいて,プレトレーニング手法の効果を評価する。
a)腹部T2強調MRI画像における肝セグメンテーション
b) 前立腺のt2強調mr画像における前立腺セグメンテーション
我々は,ラベル付きデータセットが少ない場合に,自己スーパービジョンを用いて事前訓練したDLモデルを同等の性能で微調整できることを示した。
また, 比較損失に基づく事前学習によるDLモデルの初期化は, 回帰損失よりも優れていた。
関連論文リスト
- Assessing the Performance of the DINOv2 Self-supervised Learning Vision Transformer Model for the Segmentation of the Left Atrium from MRI Images [1.2499537119440245]
DINOv2は、MRIを用いたLAセグメンテーションのための自然画像に基づいて訓練された自己教師型学習視覚変換器である。
我々は、Diceスコアが.871で、Jaccard Indexが.792で、エンドツーエンドの微調整が可能な、正確で一貫したセグメンテーションを提供する能力を示す。
これらの結果は、DINOv2がMRIに限られたデータで効果的に適応し、セグメンテーションの競争ツールとしての可能性を強調し、医療画像の幅広い利用を促進することを示唆している。
論文 参考訳(メタデータ) (2024-11-14T17:15:51Z) - Train smarter, not harder: learning deep abdominal CT registration on
scarce data [0.8179387741893692]
腹部画像における畳み込みニューラルネットワークによる画像-画像の登録を改善するためのトレーニング戦略について検討する。
訓練段階におけるセグメンテーションを用いた指導は、ディープラーニングに基づく画像登録に有用であることが証明された。
脳MRIデータセットから腹部CTデータセットまで、事前訓練されたモデルを微調整することで、パフォーマンスがさらに向上した。
論文 参考訳(メタデータ) (2022-11-28T19:03:01Z) - Mixed-UNet: Refined Class Activation Mapping for Weakly-Supervised
Semantic Segmentation with Multi-scale Inference [28.409679398886304]
我々は、デコードフェーズに2つの並列分岐を持つMixed-UNetという新しいモデルを開発する。
地域病院や公開データセットから収集したデータセットに対して,いくつかの一般的なディープラーニングに基づくセグメンテーションアプローチに対して,設計したMixed-UNetを評価した。
論文 参考訳(メタデータ) (2022-05-06T08:37:02Z) - Adaptive Contrast for Image Regression in Computer-Aided Disease
Assessment [22.717658723840255]
深部画像回帰のための最初のコントラスト学習フレームワーク,すなわちAdaConを提案する。
AdaConは、新しいアダプティブマージンコントラスト損失と回帰予測ブランチによる特徴学習ブランチで構成されている。
AdaConの2つの医用画像回帰作業における効果を実証する。
論文 参考訳(メタデータ) (2021-12-22T07:13:02Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - About Explicit Variance Minimization: Training Neural Networks for
Medical Imaging With Limited Data Annotations [2.3204178451683264]
VAT(Variance Aware Training)法は、モデル損失関数に分散誤差を導入することにより、この特性を利用する。
多様な領域から得られた3つの医用画像データセットと様々な学習目標に対するVATの有効性を検証した。
論文 参考訳(メタデータ) (2021-05-28T21:34:04Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - DMT: Dynamic Mutual Training for Semi-Supervised Learning [69.17919491907296]
自己学習法は通常、低信頼の擬似ラベルをフィルタリングするために単一のモデル予測の信頼性に依存する。
動的相互学習と呼ばれる動的に再重み付けされた損失関数を用いて、2つの異なるモデル間の相互学習を提案する。
実験の結果,DMTは画像分類とセマンティックセグメンテーションの両方において最先端の性能を実現することがわかった。
論文 参考訳(メタデータ) (2020-04-18T03:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。