論文の概要: An Evaluation of Self-Supervised Pre-Training for Skin-Lesion Analysis
- arxiv url: http://arxiv.org/abs/2106.09229v1
- Date: Thu, 17 Jun 2021 03:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:53:24.601279
- Title: An Evaluation of Self-Supervised Pre-Training for Skin-Lesion Analysis
- Title(参考訳): 皮膚病変解析のための自己監督前訓練の評価
- Authors: Levy Chaves, Alceu Bissoto, Eduardo Valle and Sandra Avila
- Abstract要約: 自己指導型プレトレーニングは、トランスファーラーニングのための教師付きプレトレーニングの代替となる。
プリテキストタスクでアノテーションを合成することで、セルフスーパービジョンは、ターゲットタスクでそれらを微調整する前に、大量の擬似ラベルでモデルを事前訓練することができる。
- 参考スコア(独自算出の注目度): 14.466964262040136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised pre-training appears as an advantageous alternative to
supervised pre-trained for transfer learning. By synthesizing annotations on
pretext tasks, self-supervision allows to pre-train models on large amounts of
pseudo-labels before fine-tuning them on the target task. In this work, we
assess self-supervision for the diagnosis of skin lesions, comparing three
self-supervised pipelines to a challenging supervised baseline, on five test
datasets comprising in- and out-of-distribution samples. Our results show that
self-supervision is competitive both in improving accuracies and in reducing
the variability of outcomes. Self-supervision proves particularly useful for
low training data scenarios ($<1\,500$ and $<150$ samples), where its ability
to stabilize the outcomes is essential to provide sound results.
- Abstract(参考訳): 自己指導型プレトレーニングは、トランスファーラーニングのための教師付きプレトレーニングの代替となる。
プリテキストタスクのアノテーションを合成することで、self-supervisionはターゲットタスクで微調整する前に、大量の擬似ラベルでモデルを事前トレーニングすることができる。
そこで本研究では, 皮膚病変の診断のためのセルフスーパービジョンを評価し, 3つのセルフスーパービジョンパイプラインと, 内および外分布サンプルからなる5つのテストデータセットの課題ベースラインを比較した。
以上の結果から,自己スーパービジョンは,適応性の向上と結果のばらつきの低減の両方において競争的であることが示された。
セルフスーパービジョンは、低いトレーニングデータシナリオ($<1\,500$と$<150$サンプル)において特に有用であり、健全な結果を得るためには結果の安定化が不可欠である。
関連論文リスト
- Self-Supervised Pretraining Improves Performance and Inference
Efficiency in Multiple Lung Ultrasound Interpretation Tasks [65.23740556896654]
肺超音波検査における複数分類課題に適用可能なニューラルネットワーク特徴抽出器を,自己指導型プレトレーニングで作成できるかどうかを検討した。
3つの肺超音波のタスクを微調整すると、事前訓練されたモデルにより、各テストセットの受信操作曲線(AUC)における平均クロスタスク面積は、それぞれ0.032と0.061に改善された。
論文 参考訳(メタデータ) (2023-09-05T21:36:42Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - On Transfer of Adversarial Robustness from Pretraining to Downstream
Tasks [1.8900691517352295]
下流タスクにおける線形予測子のロバスト性は、その基盤となる表現のロバスト性によって制約できることを示す。
本結果は,適応後の信頼性向上のために,表現関数の要求を特徴付けるための最初のステップを提供する。
論文 参考訳(メタデータ) (2022-08-07T23:00:40Z) - Improving In-Context Few-Shot Learning via Self-Supervised Training [48.801037246764935]
本稿では,事前学習と下流での撮影の中間訓練段階において,自己監督を併用することを提案する。
中間的な自己超越段階は、強いベースラインよりも優れたモデルを生成する。
論文 参考訳(メタデータ) (2022-05-03T18:01:07Z) - Better Self-training for Image Classification through Self-supervision [3.492636597449942]
自己監督(Self-supervision)は、自動生成されたプレテキストタスクを解決し、手動による監督なしに学習することである。
本稿では,画像分類の精度を高めるために,自己訓練に自己監督を取り入れる3つの方法について検討する。
論文 参考訳(メタデータ) (2021-09-02T08:24:41Z) - Improve Unsupervised Pretraining for Few-label Transfer [80.58625921631506]
本稿では,対象データセットに微調整用のラベル付きサンプルがほとんどない場合,この結論は成立しない可能性がある。
実アプリケーションのための新しいプログレッシブな数ラベル転送アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-26T17:59:56Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。