論文の概要: Task-Customized Self-Supervised Pre-training with Scalable Dynamic
Routing
- arxiv url: http://arxiv.org/abs/2205.13267v1
- Date: Thu, 26 May 2022 10:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:33:38.304240
- Title: Task-Customized Self-Supervised Pre-training with Scalable Dynamic
Routing
- Title(参考訳): スケーラブルな動的ルーティングによるタスクカスタマイズ型自己監督型事前学習
- Authors: Zhili Liu, Jianhua Han, Lanqing Hong, Hang Xu, Kai Chen, Chunjing Xu,
Zhenguo Li
- Abstract要約: セルフ教師付き事前トレーニングの一般的な実践は、できるだけ多くのデータを使用することである。
しかし、特定のダウンストリームタスクでは、事前トレーニングで無関係なデータを含むと、ダウンストリームのパフォーマンスが低下する可能性がある。
異なるタスクのための事前トレーニングで、異なるダウンストリームタスクにカスタマイズされたデータセットを使用することは、重荷であり、実現不可能である。
- 参考スコア(独自算出の注目度): 76.78772372631623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL), especially contrastive methods, has raised
attraction recently as it learns effective transferable representations without
semantic annotations. A common practice for self-supervised pre-training is to
use as much data as possible. For a specific downstream task, however,
involving irrelevant data in pre-training may degenerate the downstream
performance, observed from our extensive experiments. On the other hand, for
existing SSL methods, it is burdensome and infeasible to use different
downstream-task-customized datasets in pre-training for different tasks. To
address this issue, we propose a novel SSL paradigm called Scalable Dynamic
Routing (SDR), which can be trained once and deployed efficiently to different
downstream tasks with task-customized pre-trained models. Specifically, we
construct the SDRnet with various sub-nets and train each sub-net with only one
subset of the data by data-aware progressive training. When a downstream task
arrives, we route among all the pre-trained sub-nets to get the best along with
its corresponding weights. Experiment results show that our SDR can train 256
sub-nets on ImageNet simultaneously, which provides better transfer performance
than a unified model trained on the full ImageNet, achieving state-of-the-art
(SOTA) averaged accuracy over 11 downstream classification tasks and AP on
PASCAL VOC detection task.
- Abstract(参考訳): 自己教師付き学習(SSL)、特に対照的な手法は、セマンティックアノテーションなしで効果的な伝達可能な表現を学ぶことで、近年注目を集めている。
セルフ教師付き事前トレーニングの一般的な実践は、できるだけ多くのデータを使用することである。
しかし、特定の下流タスクでは、事前学習における無関係なデータを含むと、我々の広範な実験から観察された下流性能が低下する可能性がある。
一方、既存のSSLメソッドでは、異なるタスクの事前トレーニングで異なるダウンストリームタスクにカスタマイズされたデータセットを使用することは、負担がかかりやすい。
この問題に対処するため,我々は,タスクをカスタマイズした事前学習モデルを用いて,複数の下流タスクに一度トレーニングし,効率的にデプロイ可能な,スケーラブルな動的ルーティング(sdr)と呼ばれる新しいsslパラダイムを提案する。
具体的には,SDRnetを各種サブネットで構築し,データ認識プログレッシブトレーニングによって各サブネットを1つのサブセットでトレーニングする。
ダウンストリームタスクが到着すると、トレーニング済みのすべてのサブネットをルートして、そのウェイトに合わせて最善を尽くします。
実験の結果,SDR は ImageNet 上で256 のサブネットを同時にトレーニングすることが可能であり,フルイメージネット上で訓練された統一モデルよりも優れた転送性能を実現し,11 下流分類タスクの平均精度と PASCAL VOC 検出タスクにおけるAP を達成できた。
関連論文リスト
- Self-supervised visual learning in the low-data regime: a comparative evaluation [40.27083924454058]
自己監視学習(SSL)は、現代のディープニューラルネットワーク(DNN)のための堅牢なトレーニング手法である
この研究は、現代のビジュアルSSLメソッドの分類を導入し、アプローチの主要なカテゴリに関する詳細な説明と洞察を添えた。
ドメイン固有のダウンストリームタスクでは、ドメイン内のローデータSSLプリトレーニングが大規模な事前トレーニングの一般的なアプローチより優れています。
論文 参考訳(メタデータ) (2024-04-26T07:23:14Z) - Match to Win: Analysing Sequences Lengths for Efficient Self-supervised
Learning in Speech and Audio [19.865050806327147]
自己教師型学習は、音声および音声関連アプリケーションにおいて不可欠であることが証明されている。
本稿では、特定配列長の異なるSSL事前トレーニングに関する最初の実証的研究について述べる。
ショートシーケンスでのトレーニングは、すべてのタスクで満足なパフォーマンスを維持しながら、リソースコストを劇的に削減できることがわかった。
論文 参考訳(メタデータ) (2022-09-30T16:35:42Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - Consecutive Pretraining: A Knowledge Transfer Learning Strategy with
Relevant Unlabeled Data for Remote Sensing Domain [25.84756140221655]
自然言語処理(NLP)における事前学習を停止しないという考え方に基づいて,CSPT(ConSecutive PreTraining)を提案する。
提案したCSPTは、タスク対応モデルトレーニングのためのラベルなしデータの巨大な可能性を公開することもできる。
その結果,提案したCSPTをタスク認識モデルトレーニングに活用することにより,従来の教師付きプレトレーニング-then-fine-tuning法よりもRTDのダウンストリームタスクのほとんどを上回り得ることがわかった。
論文 参考訳(メタデータ) (2022-07-08T12:32:09Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - Task2Sim : Towards Effective Pre-training and Transfer from Synthetic
Data [74.66568380558172]
本稿では,グラフィックスシミュレータから下流タスクへの合成データに基づく事前学習モデルの転送可能性について検討する。
本稿では、最適なシミュレーションパラメータに対する下流タスク表現を統一したモデルマッピングであるTask2Simを紹介する。
このマッピングはトレーニングによって学習し、"見える"タスクのセットで最適なパラメータのセットを見つける。
トレーニングが完了すると、ワンショットで新しい"見えない"タスクの最適なシミュレーションパラメータを予測するために使用することができる。
論文 参考訳(メタデータ) (2021-11-30T19:25:27Z) - Rethinking supervised pre-training for better downstream transferring [46.09030708111374]
本稿では,Leave-One-Out K-Nearest-Neighbor(LOOK)に基づく教師付き事前学習手法を提案する。
上流タスクをオーバーフィットさせる問題は、各イメージにクラスラベルを共有することだけを要求することで解決される。
提案手法を大規模データセットに対して効率的に実装する手法を開発した。
論文 参考訳(メタデータ) (2021-10-12T13:57:38Z) - On the Transferability of Pre-trained Language Models: A Study from
Artificial Datasets [74.11825654535895]
大規模未ラベルテキストデータ上での事前学習言語モデル(LM)により、ダウンストリームのパフォーマンスが極めて容易になる。
我々は,事前学習データに含まれる特定の特徴について,セマンティクス以外では,下流タスクのスクラッチからトレーニングしたデータよりも,事前学習したLMを優れているか検討した。
論文 参考訳(メタデータ) (2021-09-08T10:39:57Z) - Robust Transfer Learning with Pretrained Language Models through
Adapters [40.45102278979193]
BERTのような大きな事前訓練された言語モデルによる伝達学習は、ほとんどのNLPタスクにおいて支配的なアプローチとなっている。
これらの問題を緩和するために, 単純かつ効果的なアダプタベースのアプローチを提案する。
実験により,このような学習手法が,様々な下流タスクへの伝達学習における安定性と対角的堅牢性の向上につながることが示された。
論文 参考訳(メタデータ) (2021-08-05T02:30:13Z) - How Well Self-Supervised Pre-Training Performs with Streaming Data? [73.5362286533602]
ストリーミング形式でデータが収集される現実のシナリオでは、ジョイントトレーニングスキームは通常、ストレージ重大で時間を要する。
ストリーミングデータでどのように連続的な自己監督プリトレーニングが実行されるかは不明です。
ストリーミングデータ内の分散シフトが軽度である場合,逐次自己教師付き学習は共同学習とほぼ同等の性能を示す。
論文 参考訳(メタデータ) (2021-04-25T06:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。