論文の概要: Unsupervised Transfer Learning for Spatiotemporal Predictive Networks
- arxiv url: http://arxiv.org/abs/2009.11763v1
- Date: Thu, 24 Sep 2020 15:40:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-15 04:13:57.760454
- Title: Unsupervised Transfer Learning for Spatiotemporal Predictive Networks
- Title(参考訳): 時空間予測ネットワークのための教師なし転送学習
- Authors: Zhiyu Yao, Yunbo Wang, Mingsheng Long, Jianmin Wang
- Abstract要約: 我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
- 参考スコア(独自算出の注目度): 90.67309545798224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores a new research problem of unsupervised transfer learning
across multiple spatiotemporal prediction tasks. Unlike most existing transfer
learning methods that focus on fixing the discrepancy between supervised tasks,
we study how to transfer knowledge from a zoo of unsupervisedly learned models
towards another predictive network. Our motivation is that models from
different sources are expected to understand the complex spatiotemporal
dynamics from different perspectives, thereby effectively supplementing the new
task, even if the task has sufficient training samples. Technically, we propose
a differentiable framework named transferable memory. It adaptively distills
knowledge from a bank of memory states of multiple pretrained RNNs, and applies
it to the target network via a novel recurrent structure called the
Transferable Memory Unit (TMU). Compared with finetuning, our approach yields
significant improvements on three benchmarks for spatiotemporal prediction, and
benefits the target task even from less relevant pretext ones.
- Abstract(参考訳): 本稿では,複数の時空間予測タスクにまたがる教師なし転送学習の新たな研究課題について検討する。
教師付きタスク間の不一致を修正することに焦点を当てた,既存のトランスファー学習手法と異なり,教師なし学習モデルの動物園から別の予測ネットワークへ知識を移す方法について検討する。
我々のモチベーションは、異なるソースからのモデルが異なる視点から複雑な時空間力学を理解し、タスクが十分なトレーニングサンプルを持っている場合でも、そのタスクを効果的に補うことである。
技術的には、転送可能なメモリという識別可能なフレームワークを提案する。
複数の事前訓練されたRNNの記憶状態のバンクから知識を適応的に蒸留し、Transferable Memory Unit (TMU)と呼ばれる新しい再帰構造を介してターゲットネットワークに適用する。
微調整と比較すると,提案手法は時空間予測のための3つのベンチマークにおいて有意な改善をもたらす。
関連論文リスト
- Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - Look-Ahead Selective Plasticity for Continual Learning of Visual Tasks [9.82510084910641]
タスク境界において,タスクが終了し,他のタスク開始時に発生する新しいメカニズムを提案する。
CIFAR10やTinyImagenetなどのコンピュータビジョンデータセットのベンチマークで提案手法を評価する。
論文 参考訳(メタデータ) (2023-11-02T22:00:23Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Self-Supervised Prototypical Transfer Learning for Few-Shot
Classification [11.96734018295146]
自己教師ありトランスファー学習アプローチ ProtoTransferは、数ショットタスクにおいて、最先端の教師なしメタラーニング手法より優れている。
ドメインシフトを用いた数ショットの実験では、我々のアプローチは教師付きメソッドに匹敵する性能を持つが、ラベルの桁数は桁違いである。
論文 参考訳(メタデータ) (2020-06-19T19:00:11Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z) - Anti-Transfer Learning for Task Invariance in Convolutional Neural
Networks for Speech Processing [6.376852004129252]
本稿では,畳み込みニューラルネットワークを用いた音声処理におけるアンチトランスファー学習の概念を紹介する。
提案手法は, 実際にタスクに対する意図的不変性や, 対象タスクに対してより適切な機能に導かれることを示す。
論文 参考訳(メタデータ) (2020-06-11T15:03:29Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。