論文の概要: Dive into Self-Supervised Learning for Medical Image Analysis: Data,
Models and Tasks
- arxiv url: http://arxiv.org/abs/2209.12157v2
- Date: Mon, 17 Apr 2023 03:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:16:37.403523
- Title: Dive into Self-Supervised Learning for Medical Image Analysis: Data,
Models and Tasks
- Title(参考訳): 医用画像分析のための自己指導型学習の試み:データ,モデル,課題
- Authors: Chuyan Zhang and Yun Gu
- Abstract要約: 自己教師付き学習は、様々な医療画像のタスクにおいて、大量の未ラベルデータから先行情報を減らすことによって、顕著なパフォーマンスを達成している。
SSLのキャパシティを、4つの現実的で重要な問題の観点から活用することに重点を置いています。
我々は,予測的,コントラスト的,生成的,マルチSSLアルゴリズムに関する広範な実験を通じて,大規模で詳細な研究を行う。
- 参考スコア(独自算出の注目度): 8.720079280914169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) has achieved remarkable performance in various
medical imaging tasks by dint of priors from massive unlabelled data. However,
regarding a specific downstream task, there is still a lack of an instruction
book on how to select suitable pretext tasks and implementation details
throughout the standard ``pretrain-then-finetune'' workflow. In this work, we
focus on exploiting the capacity of SSL in terms of four realistic and
significant issues: (1) the impact of SSL on imbalanced datasets, (2) the
network architecture, (3) the applicability of upstream tasks to downstream
tasks and (4) the stacking effect of SSL and common policies for deep learning.
We provide a large-scale, in-depth and fine-grained study through extensive
experiments on predictive, contrastive, generative and multi-SSL algorithms.
Based on the results, we have uncovered several insights. Positively, SSL
advances class-imbalanced learning mainly by boosting the performance of the
rare class, which is of interest to clinical diagnosis. Unfortunately, SSL
offers marginal or even negative returns in some cases, including severely
imbalanced and relatively balanced data regimes, as well as combinations with
common training policies. Our intriguing findings provide practical guidelines
for the usage of SSL in the medical context and highlight the need for
developing universal pretext tasks to accommodate diverse application
scenarios.
- Abstract(参考訳): 自己教師付き学習(SSL)は、様々な医療画像のタスクにおいて、大量の未ラベルデータから先行データを減らし、顕著なパフォーマンスを達成した。
しかし、特定のダウンストリームタスクに関しては、標準の `pretrain-then-finetune'' ワークフロー全体を通して適切なプリテキストタスクと実装の詳細を選択するための指示書がない。
本研究では,(1)不均衡なデータセットに対するSSLの影響,(2)ネットワークアーキテクチャ,(3)上流タスクの下流タスクへの適用性,(4)SSLの積み重ね効果,およびディープラーニングに対する共通ポリシーの4つの観点から,SSLの能力を活用することに焦点を当てる。
予測的,コントラスト的,生成的,マルチSSLアルゴリズムに関する広範な実験を通じて,大規模かつ詳細な研究を行う。
その結果から,いくつかの知見が得られた。
SSLは, 臨床診断に関心のある稀なクラスのパフォーマンスを高めることによって, クラス不均衡学習を推進している。
残念なことにSSLは、厳しい不均衡と比較的バランスの取れたデータレギュレーションや、一般的なトレーニングポリシの組み合わせなど、一部のケースでは限界あるいは負のリターンを提供する。
我々の興味深い発見は、医学的文脈におけるSSLの使用に関する実践的なガイドラインを提供し、多様なアプリケーションシナリオに対応するために普遍的なプリテキストタスクを開発する必要性を強調します。
関連論文リスト
- A Survey of the Self Supervised Learning Mechanisms for Vision Transformers [5.152455218955949]
視覚タスクにおける自己教師あり学習(SSL)の適用は注目されている。
SSL手法を体系的に分類する包括的分類法を開発した。
SSLの背後にあるモチベーションについて議論し、人気のある事前トレーニングタスクをレビューし、この分野の課題と進歩を強調します。
論文 参考訳(メタデータ) (2024-08-30T07:38:28Z) - Self-supervised visual learning in the low-data regime: a comparative evaluation [40.27083924454058]
自己監視学習(SSL)は、現代のディープニューラルネットワーク(DNN)のための堅牢なトレーニング手法である
この研究は、現代のビジュアルSSLメソッドの分類を導入し、アプローチの主要なカテゴリに関する詳細な説明と洞察を添えた。
ドメイン固有のダウンストリームタスクでは、ドメイン内のローデータSSLプリトレーニングが大規模な事前トレーニングの一般的なアプローチより優れています。
論文 参考訳(メタデータ) (2024-04-26T07:23:14Z) - Self-Supervision for Tackling Unsupervised Anomaly Detection: Pitfalls
and Opportunities [50.231837687221685]
自己教師付き学習(SSL)は、機械学習とその多くの現実世界のアプリケーションに変化をもたらした。
非教師なし異常検出(AD)は、自己生成性擬似異常によりSSLにも乗じている。
論文 参考訳(メタデータ) (2023-08-28T07:55:01Z) - A Survey on Self-supervised Learning: Algorithms, Applications, and Future Trends [82.64268080902742]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - Benchmarking Self-Supervised Learning on Diverse Pathology Datasets [10.868779327544688]
自己教師付き学習は、ラベルのないデータを活用する効果的な方法であることが示されている。
我々は、病理画像データに基づいてSSL事前トレーニングを行う最大規模の研究を行う。
核インスタンスセグメンテーションの課題に対してSSLを初めて適用する。
論文 参考訳(メタデータ) (2022-12-09T06:38:34Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Improving Self-supervised Learning with Hardness-aware Dynamic
Curriculum Learning: An Application to Digital Pathology [2.2742357407157847]
自己教師付き学習(SSL)は、最近、多くの画像解析タスクに有用な汎用的な視覚表現を学習する大きな可能性を示している。
既存のSSLメソッドは、ラベル付きトレーニングインスタンスの数が少ない場合や、転送ドメイン間のドメインシフトが重要である場合、ダウンストリームタスクに一般化できない。
本稿では,カリキュラム学習のレンズを用いて,自己指導型事前学習表現の改善を試みる。
論文 参考訳(メタデータ) (2021-08-16T15:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。