論文の概要: Robustifying Sequential Neural Processes
- arxiv url: http://arxiv.org/abs/2006.15987v1
- Date: Mon, 29 Jun 2020 12:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 13:46:39.630668
- Title: Robustifying Sequential Neural Processes
- Title(参考訳): ロバスト化シーケンスニューラルプロセス
- Authors: Jaesik Yoon, Gautam Singh and Sungjin Ahn
- Abstract要約: メタ・トランスファー設定では,標準的なアテンション機構が有効でないことを示す。
本稿では,新たな注意機構であるリカレントメモリ再構成(Recurrent Memory Reconstruction, RMR)を提案する。
- 参考スコア(独自算出の注目度): 26.822720706882265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When tasks change over time, meta-transfer learning seeks to improve the
efficiency of learning a new task via both meta-learning and transfer-learning.
While the standard attention has been effective in a variety of settings, we
question its effectiveness in improving meta-transfer learning since the tasks
being learned are dynamic and the amount of context can be substantially
smaller. In this paper, using a recently proposed meta-transfer learning model,
Sequential Neural Processes (SNP), we first empirically show that it suffers
from a similar underfitting problem observed in the functions inferred by
Neural Processes. However, we further demonstrate that unlike the meta-learning
setting, the standard attention mechanisms are not effective in meta-transfer
setting. To resolve, we propose a new attention mechanism, Recurrent Memory
Reconstruction (RMR), and demonstrate that providing an imaginary context that
is recurrently updated and reconstructed with interaction is crucial in
achieving effective attention for meta-transfer learning. Furthermore,
incorporating RMR into SNP, we propose Attentive Sequential Neural
Processes-RMR (ASNP-RMR) and demonstrate in various tasks that ASNP-RMR
significantly outperforms the baselines.
- Abstract(参考訳): タスクが時間とともに変化するとき、メタトランスファー学習は、メタラーニングとトランスファーラーニングの両方を通して新しいタスクを学習する効率を改善する。
標準的な注意は様々な場面で有効であるが,学習対象のタスクが動的であり,コンテキストの量も大幅に小さくなるため,メタトランスファー学習の改善に有効か疑問が持たれている。
本稿では,最近提案された逐次ニューラルプロセス(snp)というメタトランスファー学習モデルを用いて,神経プロセスによって推定される機能で見られる同様の不適合問題に苦しむことを実証的に示す。
しかし、メタラーニング設定とは異なり、標準注意機構はメタ転送設定において有効ではないことをさらに示している。
そこで本研究では,リカレントメモリ再構成(Recurrent Memory Reconstruction, RMR)と呼ばれる新たなアテンション機構を提案し,メタトランスファー学習において効果的なアテンションを実現する上で,リカレント・リカレント・コンテクストの提供が重要であることを示す。
さらに,SNP に RMR を組み込んだ Attentive Sequential Neural Processes-RMR (ASNP-RMR) を提案する。
関連論文リスト
- Deep Learning 2.0: Artificial Neurons That Matter -- Reject Correlation, Embrace Orthogonality [0.0]
ヤット生産型ニューラルネットワークであるニューラルマターネットワーク(NMN)を導入する。
NMNは活性化機能のない非線形パターン認識を実現する。
Yat-MLPは、単純さと有効性を組み合わせたニューラルネットワーク設計の新しいパラダイムを確立する。
論文 参考訳(メタデータ) (2024-11-12T16:52:51Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Transformers are Meta-Reinforcement Learners [0.060917028769172814]
本稿では,トランスアーキテクチャを用いたメモリ再配置機構を模倣したメタRLエージェントTrMRLを提案する。
本稿では,各層におけるベイズリスクを最小限に抑えるコンセンサス表現を自己注意で計算することを示す。
その結果, TrMRLは同等あるいは優れた性能, サンプル効率, アウト・オブ・ディストリビューションの一般化を示すことがわかった。
論文 参考訳(メタデータ) (2022-06-14T06:21:13Z) - On the Effectiveness of Fine-tuning Versus Meta-reinforcement Learning [71.55412580325743]
本稿では,新しいタスクを微調整したマルチタスク事前学習がメタテスト時間適応によるメタ事前学習と同等かそれ以上に機能することを示す。
マルチタスク事前学習はメタRLよりもシンプルで計算的に安価である傾向があるため、これは将来の研究を奨励している。
論文 参考訳(メタデータ) (2022-06-07T13:24:00Z) - What Matters For Meta-Learning Vision Regression Tasks? [19.373532562905208]
本論文は,このほとんど探索されていない領域の理解に寄与する2つの主要な貢献を行う。
まず、オブジェクト発見とポーズ推定という2つの新しいカテゴリレベルの視覚回帰タスクを設計する。
第2に,条件付きニューラルプロセス(CNP)におけるタスク表現に関数型コントラスト学習(FCL)を付加し,エンドツーエンドで学習する手法を提案する。
論文 参考訳(メタデータ) (2022-03-09T17:28:16Z) - Large-Scale Meta-Learning with Continual Trajectory Shifting [76.29017270864308]
メタリアナーがより多くの内部勾配ステップをとれるようにすることで、ヘテロジニアスタスクや大規模タスクの構造をよりよく把握できることを示す。
メタ更新の頻度を増やすために、タスク固有のパラメータの必要なシフトを推定することを提案する。
このアルゴリズムは, 一般化性能と収束性の両方において, 先行する一階メタ学習法を大きく上回っていることを示す。
論文 参考訳(メタデータ) (2021-02-14T18:36:33Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning [4.2903672492917755]
我々は,局所学習とニューロ変調を取り入れた,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
一つの課題と連続的な学習環境の両方にアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-16T07:41:23Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Curriculum in Gradient-Based Meta-Reinforcement Learning [10.447238563837173]
勾配に基づくメタラーナーはタスク分布に敏感であることを示す。
間違ったカリキュラムでは、エージェントはメタオーバーフィッティング、浅い適応、適応不安定の影響を被る。
論文 参考訳(メタデータ) (2020-02-19T01:40:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。