論文の概要: Training Learned Optimizers with Randomly Initialized Learned Optimizers
- arxiv url: http://arxiv.org/abs/2101.07367v1
- Date: Thu, 14 Jan 2021 19:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:44:17.155361
- Title: Training Learned Optimizers with Randomly Initialized Learned Optimizers
- Title(参考訳): ランダム初期化学習オプティマイザを用いた学習オプティマイザの学習
- Authors: Luke Metz, C. Daniel Freeman, Niru Maheswaranathan, Jascha
Sohl-Dickstein
- Abstract要約: ランダムに学習した人の集団は、オンラインの方法でゼロから学習することができる。
人口ベーストレーニングの形式は、この自己学習の組織化に使用される。
このタイプのフィードバックループは、機械学習の将来において重要かつ強力なものになると思います。
- 参考スコア(独自算出の注目度): 49.67678615506608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned optimizers are increasingly effective, with performance exceeding
that of hand designed optimizers such as Adam~\citep{kingma2014adam} on
specific tasks \citep{metz2019understanding}. Despite the potential gains
available, in current work the meta-training (or `outer-training') of the
learned optimizer is performed by a hand-designed optimizer, or by an optimizer
trained by a hand-designed optimizer \citep{metz2020tasks}. We show that a
population of randomly initialized learned optimizers can be used to train
themselves from scratch in an online fashion, without resorting to a hand
designed optimizer in any part of the process. A form of population based
training is used to orchestrate this self-training. Although the randomly
initialized optimizers initially make slow progress, as they improve they
experience a positive feedback loop, and become rapidly more effective at
training themselves. We believe feedback loops of this type, where an optimizer
improves itself, will be important and powerful in the future of machine
learning. These methods not only provide a path towards increased performance,
but more importantly relieve research and engineering effort.
- Abstract(参考訳): 学習されたオプティマイザは、特定のタスクのAdam~\citep{kingma2014adam}のような手作りのオプティマイザよりもパフォーマンスが向上する。
現在の作業では、学習したオプティマイザのメタトレーニング(または'outer-training')は、手設計のオプティマイザまたは手設計のオプティマイザ \citep{metz2020tasks} によって訓練されたオプティマイザによって実行される。
ランダムに初期化して学習したオプティマイザの集団は、そのプロセスのどの部分でも手作りのオプティマイザを使わずに、オンラインでスクラッチから学習することができる。
人口ベーストレーニングの形式は、この自己学習の組織化に使用される。
ランダムに初期化されるオプティマイザは、最初は遅く進行するが、改善するにつれてポジティブなフィードバックループを経験し、トレーニング自体において急速に効果的になる。
このタイプのフィードバックループは、オプティマイザが自らを改善すれば、機械学習の将来において重要かつ強力なものになると考えています。
これらの手法は性能向上への道筋を提供するだけでなく、研究と工学の努力を和らげる。
関連論文リスト
- Learning to Optimize for Reinforcement Learning [58.01132862590378]
強化学習(Reinforcement Learning, RL)は、教師付き学習とは本質的に異なり、実際、これらの学習は単純なRLタスクでもうまく機能しない。
エージェント勾配分布は非独立で同一分布であり、非効率なメタトレーニングをもたらす。
おもちゃのタスクでしか訓練されていないが、我々の学習はブラックスの目に見えない複雑なタスクを一般化できることを示した。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - A Closer Look at Learned Optimization: Stability, Robustness, and
Inductive Biases [44.01339030872185]
ブラックボックスは、しばしば、メタトレーニングセットのタスクと異なり、安定性と一般化に苦しむ。
最適化アルゴリズムの帰納バイアスと安定性特性について検討し、結果として得られる知見をブラックボックスの帰納バイアスの設計に適用する。
私たちはさまざまなニューラルネットワークトレーニングタスクを学び、そこで学んだ技術の現状を上回ります。
論文 参考訳(メタデータ) (2022-09-22T17:47:21Z) - Practical tradeoffs between memory, compute, and performance in learned
optimizers [46.04132441790654]
我々は、多くの学習や手作業で設計された機能に対して、メモリ、計算、パフォーマンスのトレードオフを特定し、定量化する。
分析を活用して、従来の作業よりも速く、より効率的に学習可能なものを構築するのです。
論文 参考訳(メタデータ) (2022-03-22T16:36:36Z) - Reverse engineering learned optimizers reveals known and novel
mechanisms [50.50540910474342]
学習は最適化問題を解決するために自らを訓練できるアルゴリズムである。
実験の結果は,学習の動作方法に関するそれまでの曖昧な理解を解明し,今後の学習を解釈するためのツールを確立するのに役立つ。
論文 参考訳(メタデータ) (2020-11-04T07:12:43Z) - Tasks, stability, architecture, and compute: Training more effective
learned optimizers, and using them to train themselves [53.37905268850274]
我々は、自動正規化を実現するために、バリデーション損失などの追加機能にアクセス可能な、階層的で階層的なニューラルネットワークパラメータ化を導入した。
ほとんどの学習は単一のタスク、あるいは少数のタスクでトレーニングされています。
何千ものタスクをトレーニングし、桁違いに計算量を増やし、その結果、目に見えないタスクよりも優れたパフォーマンスの一般化を実現します。
論文 参考訳(メタデータ) (2020-09-23T16:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。