論文の概要: DATA: Domain-Aware and Task-Aware Pre-training
- arxiv url: http://arxiv.org/abs/2203.09041v1
- Date: Thu, 17 Mar 2022 02:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:41:16.346074
- Title: DATA: Domain-Aware and Task-Aware Pre-training
- Title(参考訳): データ:ドメイン認識とタスク認識事前トレーニング
- Authors: Qing Chang, Junran Peng, Lingxie Xie, Jiajun Sun, Haoran Yin, Qi Tian,
Zhaoxiang Zhang
- Abstract要約: 我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
- 参考スコア(独自算出の注目度): 94.62676913928831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paradigm of training models on massive data without label through
self-supervised learning (SSL) and finetuning on many downstream tasks has
become a trend recently. However, due to the high training costs and the
unconsciousness of downstream usages, most self-supervised learning methods
lack the capability to correspond to the diversities of downstream scenarios,
as there are various data domains, different vision tasks and latency
constraints on models. Neural architecture search (NAS) is one universally
acknowledged fashion to conquer the issues above, but applying NAS on SSL seems
impossible as there is no label or metric provided for judging model selection.
In this paper, we present DATA, a simple yet effective NAS approach specialized
for SSL that provides Domain-Aware and Task-Aware pre-training. Specifically,
we (i) train a supernet which could be deemed as a set of millions of networks
covering a wide range of model scales without any label, (ii) propose a
flexible searching mechanism compatible with SSL that enables finding networks
of different computation costs, for various downstream vision tasks and data
domains without explicit metric provided. Instantiated With MoCo v2, our method
achieves promising results across a wide range of computation costs on
downstream tasks, including image classification, object detection and semantic
segmentation. DATA is orthogonal to most existing SSL methods and endows them
the ability of customization on downstream needs. Extensive experiments on
other SSL methods demonstrate the generalizability of the proposed method. Code
is released at https://github.com/GAIA-vision/GAIA-ssl
- Abstract(参考訳): 自己教師付き学習(SSL)と多くの下流タスクの微調整によるラベルのない大規模データのトレーニングモデルのパラダイムが最近流行している。
しかしながら、多くの自己教師付き学習方法は、高い訓練コストと下流利用の無意識のため、さまざまなデータドメイン、異なるビジョンタスク、モデルのレイテンシ制約があるため、下流シナリオの多様性に対応する能力が欠如している。
ニューラルネットワークサーチ(NAS)は上記の問題を克服するために広く認められた手法であるが、モデル選択を判断するためのラベルやメトリクスが存在しないため、SSLにNASを適用することは不可能である。
本稿では,ドメイン・アウェアとタスク・アウェアの事前トレーニングを提供するSSLに特化した,シンプルで効果的なNASアプローチであるDataについて述べる。
具体的には
(i)ラベルなしで広範囲のモデルスケールをカバーする数百万のネットワークの集合と見なすことができるスーパーネットを訓練すること。
(ii)様々なダウンストリームビジョンタスクやデータドメインに対して、明示的なメトリックを提供することなく、異なる計算コストのネットワークを見つけることができるsslと互換性のある柔軟な検索機構を提案する。
moco v2をインスタンス化したこの手法は,画像分類やオブジェクト検出,セマンティクスセグメンテーションなど,下流タスクの幅広い計算コストにわたって有望な結果が得られる。
Dataは既存のSSLメソッドに直交しており、ダウンストリームのニーズに応じてカスタマイズする機能を提供する。
他のSSLメソッドに対する大規模な実験は、提案手法の一般化可能性を示している。
コードはhttps://github.com/gaia-vision/gaia-sslでリリース
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Self-supervised visual learning in the low-data regime: a comparative evaluation [40.27083924454058]
自己監視学習(SSL)は、現代のディープニューラルネットワーク(DNN)のための堅牢なトレーニング手法である
この研究は、現代のビジュアルSSLメソッドの分類を導入し、アプローチの主要なカテゴリに関する詳細な説明と洞察を添えた。
ドメイン固有のダウンストリームタスクでは、ドメイン内のローデータSSLプリトレーニングが大規模な事前トレーニングの一般的なアプローチより優れています。
論文 参考訳(メタデータ) (2024-04-26T07:23:14Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - A Survey on Self-supervised Learning: Algorithms, Applications, and Future Trends [82.64268080902742]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - Effective Self-supervised Pre-training on Low-compute Networks without
Distillation [6.530011859253459]
報告された自己教師型学習のパフォーマンスは、標準的な教師付き事前学習よりも大きなマージンで遅れている。
以前の作業のほとんどは、低スループットネットワークのキャパシティボトルネックによるパフォーマンスの低下を理由としている。
我々は、現実的な制約の原因となる有害要因と、それらが自己監督型低コンプット設定に固有のものであるかどうかについて、より詳しく検討する。
論文 参考訳(メタデータ) (2022-10-06T10:38:07Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - Transfer Learning or Self-supervised Learning? A Tale of Two Pretraining
Paradigms [36.04356511882304]
自己教師付き学習(SSL)は、幅広いアプリケーションで有望な結果を示している。
データとタスクの性質について明確な理解が得られていないため、一方のアプローチがもう一方よりも優れている。
論文 参考訳(メタデータ) (2020-06-19T05:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。