論文の概要: On Neural Consolidation for Transfer in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.02240v1
- Date: Wed, 5 Oct 2022 13:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:17:02.918503
- Title: On Neural Consolidation for Transfer in Reinforcement Learning
- Title(参考訳): 強化学習における伝達のためのニューラルコンソリデーションについて
- Authors: Valentin Guillet, Dennis G. Wilson, Carlos Aguilar-Melchor, Emmanuel
Rachelson
- Abstract要約: 本稿では, ネットワーク蒸留を特徴抽出法として活用し, 伝達のコンテキストをよりよく理解する。
蒸留では,複数タスクから新しいタスクへの移動を含む知識伝達が防止されないことを示す。
- 参考スコア(独自算出の注目度): 4.129225533930966
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Although transfer learning is considered to be a milestone in deep
reinforcement learning, the mechanisms behind it are still poorly understood.
In particular, predicting if knowledge can be transferred between two given
tasks is still an unresolved problem. In this work, we explore the use of
network distillation as a feature extraction method to better understand the
context in which transfer can occur. Notably, we show that distillation does
not prevent knowledge transfer, including when transferring from multiple tasks
to a new one, and we compare these results with transfer without prior
distillation. We focus our work on the Atari benchmark due to the variability
between different games, but also to their similarities in terms of visual
features.
- Abstract(参考訳): 伝達学習は深層強化学習のマイルストーンと考えられているが、そのメカニズムはまだ理解されていない。
特に、与えられた2つのタスク間で知識を転送できるかどうかを予測することは、未解決の問題である。
本研究では, ネットワーク蒸留を特徴抽出法として用いることにより, 転移の発生状況の理解を深める。
特に,複数のタスクから新しいタスクへ移行する場合など,蒸留は知識伝達を阻害しないことを示すとともに,これらの結果と先行蒸留を伴わない転移との比較を行った。
異なるゲーム間のばらつきからAtariベンチマークに焦点をあてるとともに、視覚的特徴の点でも類似点に目を向ける。
関連論文リスト
- Disentangling and Mitigating the Impact of Task Similarity for Continual Learning [1.3597551064547502]
部分的に類似したタスクの継続的な学習は、人工知能ニューラルネットワークの課題となる。
高い入力特徴類似性と低い読み出し類似性は、知識伝達と保持の両方において破滅的である。
フィッシャー情報量に基づく重み正規化は,タスクの類似性にかかわらず,保持率を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-30T16:40:07Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Is forgetting less a good inductive bias for forward transfer? [7.704064306361941]
本論では,タスクへの前方移動の尺度は,継続学習者に課される制約の影響を受けない,と論じる。
代わりに、フォワード転送は、以前のタスクで連続的な学習によって生成された表現のセットから新しいタスクを学ぶのがいかに簡単かによって測定されるべきである。
その結果, 忘れやすい表現は, 過去の情報保持と学習効率の相関関係が強いことを示唆し, 転送効率が向上することが示された。
論文 参考訳(メタデータ) (2023-03-14T19:52:09Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Limits of Transfer Learning [0.0]
我々は、転送する情報の集合を慎重に選択する必要性と、転送される情報とターゲット問題との依存関係の必要性を示す。
これらの結果は、機械学習のためのアルゴリズム検索フレームワークの上に構築され、転送を用いた幅広い学習問題に適用できる。
論文 参考訳(メタデータ) (2020-06-23T01:48:23Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z) - Unsupervised Transfer Learning with Self-Supervised Remedy [60.315835711438936]
手動ラベルのない新しいドメインにディープネットワークを一般化することは、ディープラーニングにとって難しい。
事前学習された知識は、学習されたドメインや新しいドメインについて強い仮定をしなければ、うまく伝達しない。
本研究は,ラベル付き関連ドメインからの知識伝達により,新規ドメインにおける未ラベル対象データの識別潜在空間を学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T16:42:17Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。