論文の概要: Self-Supervised Pretraining for 2D Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2209.00314v1
- Date: Thu, 1 Sep 2022 09:25:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:31:52.201125
- Title: Self-Supervised Pretraining for 2D Medical Image Segmentation
- Title(参考訳): 2次元医用画像分割のための自己監督型事前訓練
- Authors: Andr\'as Kalapos and B\'alint Gyires-T\'oth
- Abstract要約: 自己教師付き学習は、不正なデータに対して特定のドメインのモデルを事前訓練することで、手動でアノテートされたデータの必要性を下げる手段を提供する。
自然画像と対象領域固有の画像による自己教師付き事前学習は、最も速く、最も安定した下流収束をもたらす。
低データシナリオでは、教師付きImageNet事前トレーニングが最も正確であり、最小限のエラーに近づくためには100以上の注釈付きサンプルが必要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised machine learning provides state-of-the-art solutions to a wide
range of computer vision problems. However, the need for copious labelled
training data limits the capabilities of these algorithms in scenarios where
such input is scarce or expensive. Self-supervised learning offers a way to
lower the need for manually annotated data by pretraining models for a specific
domain on unlabelled data. In this approach, labelled data are solely required
to fine-tune models for downstream tasks. Medical image segmentation is a field
where labelling data requires expert knowledge and collecting large labelled
datasets is challenging; therefore, self-supervised learning algorithms promise
substantial improvements in this field. Despite this, self-supervised learning
algorithms are used rarely to pretrain medical image segmentation networks. In
this paper, we elaborate and analyse the effectiveness of supervised and
self-supervised pretraining approaches on downstream medical image
segmentation, focusing on convergence and data efficiency. We find that
self-supervised pretraining on natural images and target-domain-specific images
leads to the fastest and most stable downstream convergence. In our experiments
on the ACDC cardiac segmentation dataset, this pretraining approach achieves
4-5 times faster fine-tuning convergence compared to an ImageNet pretrained
model. We also show that this approach requires less than five epochs of
pretraining on domain-specific data to achieve such improvement in the
downstream convergence time. Finally, we find that, in low-data scenarios,
supervised ImageNet pretraining achieves the best accuracy, requiring less than
100 annotated samples to realise close to minimal error.
- Abstract(参考訳): Supervised Machine Learningは、幅広いコンピュータビジョン問題に対する最先端のソリューションを提供する。
しかし、ラベル付きトレーニングデータの必要性は、そのような入力が少ない、あるいは高価であるシナリオにおいて、これらのアルゴリズムの機能を制限する。
自己教師付き学習は、不正なデータに対して特定のドメインのモデルを事前訓練することで、手動でアノテートされたデータの必要性を下げる方法を提供する。
このアプローチでは、ラベル付きデータは下流タスクのモデルを微調整するためにのみ必要です。
医療画像セグメンテーション(medical image segmentation)は、データラベリングが専門知識を必要とする分野であり、大きなラベル付きデータセットの収集は困難である。
それにもかかわらず、自己教師付き学習アルゴリズムは医用画像セグメンテーションネットワークの事前学習にはほとんど使われない。
本稿では,下流の医用画像セグメンテーションにおける教師付きおよび自己指導型プレトレーニングアプローチの有効性について,コンバージェンスとデータ効率に着目し,詳しく分析する。
自然画像と対象領域固有の画像に対する自己教師付き事前学習は,最も速く,最も安定した下流収束につながる。
acdc心筋セグメンテーションデータセットの実験では、このプリトレーニングアプローチはimagenetプリトレーニングモデルよりも4~5倍高速に微調整収束を実現する。
また、この手法では、下流収束時間を改善するために、ドメイン固有データに対する事前訓練が5回未満必要であることを示す。
最後に、低データシナリオでは、教師付きimagenetプリトレーニングが最高の精度を達成し、最小限のエラーに近付くために100以下の注釈付きサンプルが必要となる。
関連論文リスト
- Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - Self-Supervised-RCNN for Medical Image Segmentation with Limited Data
Annotation [0.16490701092527607]
ラベルなしMRIスキャンによる自己教師付き事前学習に基づく新たなディープラーニング学習戦略を提案する。
我々の事前学習アプローチはまず、ラベルのない画像のランダム領域に異なる歪みをランダムに適用し、次に歪みの種類と情報の損失を予測する。
異なる事前学習シナリオと微調整シナリオにおけるセグメンテーション課題に対する提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-07-17T13:28:52Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Are Large-scale Datasets Necessary for Self-Supervised Pre-training? [29.49873710927313]
対象のタスクデータのみを活用する自己指導型事前学習シナリオについて検討する。
本研究は,BEiTなどのデノイングオートエンコーダが,事前学習データの種類やサイズに対してより堅牢であることを示す。
COCOでは、COCOイメージのみを使用して事前トレーニングを行う場合、検出とインスタンスセグメンテーションのパフォーマンスは、同等の設定で教師付きImageNet事前トレーニングを上回る。
論文 参考訳(メタデータ) (2021-12-20T18:41:32Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Self-Paced Contrastive Learning for Semi-supervisedMedical Image
Segmentation with Meta-labels [6.349708371894538]
メタラベルアノテーションを扱うために、コントラスト学習を適用することを提案する。
画像エンコーダの事前トレーニングにはメタラベルを使用し、半教師付きトレーニングを標準化する。
3つの異なる医用画像セグメンテーションデータセットの結果から,本手法は数回のスキャンでトレーニングしたモデルの性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2021-07-29T04:30:46Z) - Leveraging Self-Supervision for Cross-Domain Crowd Counting [71.75102529797549]
混雑したシーンで人をカウントするための最先端の方法は、群衆密度を推定するために深いネットワークに依存します。
われわれのネットワークは、通常の画像から逆さまの実際の画像を認識できるように訓練し、その不確実性を予測する能力を組み込む。
このアルゴリズムは、推論時に余分な計算をせずに、最先端のクロスドメイン群をカウントするアルゴリズムを一貫して上回る。
論文 参考訳(メタデータ) (2021-03-30T12:37:55Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。