論文の概要: Transformer-Based Learned Optimization
- arxiv url: http://arxiv.org/abs/2212.01055v1
- Date: Fri, 2 Dec 2022 09:47:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 16:59:53.724836
- Title: Transformer-Based Learned Optimization
- Title(参考訳): トランスベース学習最適化
- Authors: Erik G\"artner, Luke Metz, Mykhaylo Andriluka, C. Daniel Freeman,
Cristian Sminchisescu
- Abstract要約: 私たちの主な革新は、古典的BFGSアルゴリズムにインスパイアされた学習のための、新しいニューラルネットワークアーキテクチャを提案することです。
近年のいくつかの学習された最適化手法とは対照的に,我々の定式化により,対象問題のパラメータ空間の異なる次元にまたがる条件付けが可能となった。
最適化アルゴリズムの評価に伝統的に用いられてきた目的関数からなるベンチマークにおいて,提案手法の利点を実証する。
- 参考スコア(独自算出の注目度): 37.84626515073609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new approach to learned optimization. As common
in the literature, we represent the computation of the update step of the
optimizer with a neural network. The parameters of the optimizer are then
learned on a set of training optimization tasks, in order to perform
minimisation efficiently. Our main innovation is to propose a new neural
network architecture for the learned optimizer inspired by the classic BFGS
algorithm. As in BFGS, we estimate a preconditioning matrix as a sum of
rank-one updates but use a transformer-based neural network to predict these
updates jointly with the step length and direction. In contrast to several
recent learned optimization approaches, our formulation allows for conditioning
across different dimensions of the parameter space of the target problem while
remaining applicable to optimization tasks of variable dimensionality without
retraining. We demonstrate the advantages of our approach on a benchmark
composed of objective functions traditionally used for evaluation of
optimization algorithms, as well as on the real world-task of physics-based
reconstruction of articulated 3D human motion.
- Abstract(参考訳): 本稿では,学習最適化への新しいアプローチを提案する。
本稿では,ニューラルネットワークを用いたオプティマイザの更新ステップの計算について述べる。
次に、最適化器のパラメータをトレーニング最適化タスクのセットで学習し、最小化を効率的に行う。
我々の主なイノベーションは、古典的なbfgsアルゴリズムにインスパイアされた学習オプティマイザのための新しいニューラルネットワークアーキテクチャを提案することです。
BFGSと同様に、プレコンディショニング行列をランクワン更新の和として推定するが、トランスフォーマーベースのニューラルネットワークを用いてこれらの更新をステップ長と方向とともに予測する。
近年のいくつかの学習された最適化手法とは対照的に,我々の定式化により,対象問題のパラメータ空間の異なる次元にまたがる条件付けが可能となった。
提案手法は,従来最適化アルゴリズムの評価に用いられてきた客観的関数のベンチマークや,3次元関節運動の物理に基づく再構成の現実の課題に対して,その利点を実証する。
関連論文リスト
- Operator SVD with Neural Networks via Nested Low-Rank Approximation [19.562492156734653]
本稿では, トラッピング特異値分解の低ランク近似に基づく新しい最適化フレームワークを提案する。
最上位の$L$特異値と特異関数を正しい順序で学習するためのエンフェンシングと呼ばれる新しい手法。
本稿では,計算物理学と機械学習のユースケースに対する提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-02-06T03:06:06Z) - Neural lasso: a unifying approach of lasso and neural networks [0.27624021966289597]
可変選択のための統計的手法は、ニューラルネットワークを介して表現される。
統計的アプローチとニューラルバージョンは同じ目的関数を持つが、最適化によって異なることが観察された。
重要な変数を識別する新しい最適化アルゴリズムが登場した。
論文 参考訳(メタデータ) (2023-09-07T15:17:10Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Learning to Optimize Quasi-Newton Methods [22.504971951262004]
本稿では、最適化時に最適な事前条件をオンラインで学習するLODOと呼ばれる新しい機械学習を提案する。
他のL2Oメソッドとは異なり、LODOはトレーニングタスクの配布にメタトレーニングを一切必要としない。
この勾配は, 雑音場における逆 Hessian を近似し, 幅広い逆 Hessian を表現可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:47:14Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Reverse engineering learned optimizers reveals known and novel
mechanisms [50.50540910474342]
学習は最適化問題を解決するために自らを訓練できるアルゴリズムである。
実験の結果は,学習の動作方法に関するそれまでの曖昧な理解を解明し,今後の学習を解釈するためのツールを確立するのに役立つ。
論文 参考訳(メタデータ) (2020-11-04T07:12:43Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Tasks, stability, architecture, and compute: Training more effective
learned optimizers, and using them to train themselves [53.37905268850274]
我々は、自動正規化を実現するために、バリデーション損失などの追加機能にアクセス可能な、階層的で階層的なニューラルネットワークパラメータ化を導入した。
ほとんどの学習は単一のタスク、あるいは少数のタスクでトレーニングされています。
何千ものタスクをトレーニングし、桁違いに計算量を増やし、その結果、目に見えないタスクよりも優れたパフォーマンスの一般化を実現します。
論文 参考訳(メタデータ) (2020-09-23T16:35:09Z) - NOVAS: Non-convex Optimization via Adaptive Stochastic Search for
End-to-End Learning and Control [22.120942106939122]
本稿では,一般のニューラルネットワーク最適化操作において,適応探索をビルディングブロックとして用いることを提案する。
我々は、合成エネルギーベースの構造化タスクにおける既存の2つの代替案に対してベンチマークを行い、最適制御アプリケーションでの使用例を示す。
論文 参考訳(メタデータ) (2020-06-22T03:40:36Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。