論文の概要: Dive into Self-Supervised Learning for Medical Image Analysis: Data,
Models and Tasks
- arxiv url: http://arxiv.org/abs/2209.12157v1
- Date: Sun, 25 Sep 2022 06:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:15:15.265497
- Title: Dive into Self-Supervised Learning for Medical Image Analysis: Data,
Models and Tasks
- Title(参考訳): 医用画像分析のための自己指導型学習の試み:データ,モデル,課題
- Authors: Chuyan Zhang and Yun Gu
- Abstract要約: 自己教師付き学習は、大量のラベルのないデータから先行データを減らして、様々な医療画像タスクにおいて顕著なパフォーマンスを達成した。
特定のダウンストリームタスクについては、適切なプリテキストタスクと実装の詳細を選択するための指導書がまだ存在しない。
- 参考スコア(独自算出の注目度): 8.720079280914169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) has achieved remarkable performance on various
medical imaging tasks by dint of priors from massive unlabeled data. However,
for a specific downstream task, there is still a lack of an instruction book on
how to select suitable pretext tasks and implementation details. In this work,
we first review the latest applications of self-supervised methods in the field
of medical imaging analysis. Then, we conduct extensive experiments to explore
four significant issues in SSL for medical imaging, including (1) the effect of
self-supervised pretraining on imbalanced datasets, (2) network architectures,
(3) the applicability of upstream tasks to downstream tasks and (4) the
stacking effect of SSL and commonly used policies for deep learning, including
data resampling and augmentation. Based on the experimental results, potential
guidelines are presented for self-supervised pretraining in medical imaging.
Finally, we discuss future research directions and raise issues to be aware of
when designing new SSL methods and paradigms.
- Abstract(参考訳): 自己教師付き学習(SSL)は、大量のラベルのないデータから先行データを減らし、様々な医療画像タスクにおいて顕著なパフォーマンスを達成した。
しかし、特定のダウンストリームタスクには、適切なプリテキストタスクと実装の詳細を選択する方法についての指示書が不足している。
本稿では, 医用画像解析の分野における自己監視手法の最近の応用について概観する。
そこで我々は,(1)不均衡なデータセットに対する自己教師型事前トレーニングの効果,(2)ネットワークアーキテクチャ,(3)上流タスクの下流タスクへの適用性,(4)SSLの積み重ね効果,およびデータ再サンプリングや拡張を含むディープラーニング政策など,医療画像におけるSSLの4つの重要な課題について,広範な実験を行った。
実験結果に基づき, 医用画像における自己教師付き事前訓練のためのガイドラインが提示された。
最後に、将来の研究の方向性を議論し、新しいsslメソッドやパラダイムを設計する際に注意すべき課題を提起する。
関連論文リスト
- A Survey of the Self Supervised Learning Mechanisms for Vision Transformers [5.152455218955949]
視覚タスクにおける自己教師あり学習(SSL)の適用は注目されている。
SSL手法を体系的に分類する包括的分類法を開発した。
SSLの背後にあるモチベーションについて議論し、人気のある事前トレーニングタスクをレビューし、この分野の課題と進歩を強調します。
論文 参考訳(メタデータ) (2024-08-30T07:38:28Z) - Self-supervised visual learning in the low-data regime: a comparative evaluation [38.34785825702943]
自己監視学習(SSL)は、現代のディープニューラルネットワーク(DNN)のための価値ある、堅牢なトレーニング手法である
大量のラベルのないトレーニングデータから効率的な表現学習を可能にする。
非常に大きな事前学習データセットの収集や利用が常に可能であるとは限らない。
論文 参考訳(メタデータ) (2024-04-26T07:23:14Z) - Self-Supervision for Tackling Unsupervised Anomaly Detection: Pitfalls
and Opportunities [50.231837687221685]
自己教師付き学習(SSL)は、機械学習とその多くの現実世界のアプリケーションに変化をもたらした。
非教師なし異常検出(AD)は、自己生成性擬似異常によりSSLにも乗じている。
論文 参考訳(メタデータ) (2023-08-28T07:55:01Z) - A Survey on Self-supervised Learning: Algorithms, Applications, and Future Trends [82.64268080902742]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - Benchmarking Self-Supervised Learning on Diverse Pathology Datasets [10.868779327544688]
自己教師付き学習は、ラベルのないデータを活用する効果的な方法であることが示されている。
我々は、病理画像データに基づいてSSL事前トレーニングを行う最大規模の研究を行う。
核インスタンスセグメンテーションの課題に対してSSLを初めて適用する。
論文 参考訳(メタデータ) (2022-12-09T06:38:34Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Improving Self-supervised Learning with Hardness-aware Dynamic
Curriculum Learning: An Application to Digital Pathology [2.2742357407157847]
自己教師付き学習(SSL)は、最近、多くの画像解析タスクに有用な汎用的な視覚表現を学習する大きな可能性を示している。
既存のSSLメソッドは、ラベル付きトレーニングインスタンスの数が少ない場合や、転送ドメイン間のドメインシフトが重要である場合、ダウンストリームタスクに一般化できない。
本稿では,カリキュラム学習のレンズを用いて,自己指導型事前学習表現の改善を試みる。
論文 参考訳(メタデータ) (2021-08-16T15:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。