論文の概要: Optimizer Amalgamation
- arxiv url: http://arxiv.org/abs/2203.06474v2
- Date: Tue, 15 Mar 2022 01:17:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-19 21:01:10.853760
- Title: Optimizer Amalgamation
- Title(参考訳): Optimizer Amalgamation
- Authors: Tianshu Huang, Tianlong Chen, Sijia Liu, Shiyu Chang, Lisa Amini,
Zhangyang Wang
- Abstract要約: 私たちは、Amalgamationという新しい問題の研究を動機付けています。"Teacher"アマルガメーションのプールを、より強力な問題固有のパフォーマンスを持つ単一の"学生"にどのように組み合わせるべきなのでしょうか?
まず、勾配降下による解析のプールをアマルガメートする3つの異なるメカニズムを定義する。
また, プロセスの分散を低減するため, 目標を摂動させることでプロセスの安定化を図る。
- 参考スコア(独自算出の注目度): 124.33523126363728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selecting an appropriate optimizer for a given problem is of major interest
for researchers and practitioners. Many analytical optimizers have been
proposed using a variety of theoretical and empirical approaches; however, none
can offer a universal advantage over other competitive optimizers. We are thus
motivated to study a new problem named Optimizer Amalgamation: how can we best
combine a pool of "teacher" optimizers into a single "student" optimizer that
can have stronger problem-specific performance? In this paper, we draw
inspiration from the field of "learning to optimize" to use a learnable
amalgamation target. First, we define three differentiable amalgamation
mechanisms to amalgamate a pool of analytical optimizers by gradient descent.
Then, in order to reduce variance of the amalgamation process, we also explore
methods to stabilize the amalgamation process by perturbing the amalgamation
target. Finally, we present experiments showing the superiority of our
amalgamated optimizer compared to its amalgamated components and learning to
optimize baselines, and the efficacy of our variance reducing perturbations.
Our code and pre-trained models are publicly available at
http://github.com/VITA-Group/OptimizerAmalgamation.
- Abstract(参考訳): 与えられた問題に対して適切なオプティマイザを選択することは、研究者や実践者にとって大きな関心事である。
多くの分析オプティマイザは、様々な理論と経験的アプローチを用いて提案されているが、他の競合オプティマイザに対して普遍的な利点を与えるものはない。
そこで私たちは、Optimizer Amalgamationという新しい問題の研究を動機付けています。 "Teacher"オプティマイザのプールをひとつの"Student"オプティマイザに組み合わせて、問題固有のパフォーマンスをより高める方法はどうすればよいのでしょう?
本稿では,「最適化する学習」という分野から着想を得て,学習可能な融合目標について述べる。
まず、勾配降下による解析最適化器のプールをアマルガメートする3つの異なるアマルガメーション機構を定義する。
そして,アマルガメーション過程の分散を低減するために,アマルガメーション対象を摂動させることでアマルガメーション過程を安定化する方法も検討する。
最後に,アマルガメート成分と比較して,アマルガメートオプティマイザの優越性を示す実験を行い,ベースラインの最適化を学習し,分散による摂動低減の有効性を示した。
私たちのコードと事前トレーニングされたモデルは、http://github.com/VITA-Group/OptimizerAmalgamation.comで公開されています。
関連論文リスト
- Improving Existing Optimization Algorithms with LLMs [0.9668407688201361]
本稿では,Large Language Models (LLM) が既存の最適化アルゴリズムをどのように拡張するかを検討する。
事前学習した知識を用いて、革新的なバリエーションと実装戦略を提案する能力を示す。
以上の結果から, GPT-4oによる代替案はCMSAのエキスパート設計よりも優れていた。
論文 参考訳(メタデータ) (2025-02-12T10:58:57Z) - Bayesian Optimization with Preference Exploration by Monotonic Neural Network Ensemble [3.004066195320147]
本稿では,ニューラルネットワークアンサンブルを実用的サロゲートモデルとして用いることを提案する。
このアプローチは自然に単調性を統合し、ペア比較データをサポートする。
アブレーション研究は、パフォーマンス向上における単調性の重要性を強調している。
論文 参考訳(メタデータ) (2025-01-30T22:50:34Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - SnAKe: Bayesian Optimization with Pathwise Exploration [9.807656882149319]
本稿では,イテレーション間の大きな入力変更を行う場合,関数評価のコストが大幅に増大する,という新しい設定について考察する。
本稿では,この問題を考察し,適応接続サンプルを用いた逐次ベイズ最適化(SnAKe)を導入する。
将来のクエリを考慮し、入力コストを最小限に抑える最適化パスをプリエンプティブに構築することで、ソリューションを提供する。
論文 参考訳(メタデータ) (2022-01-31T19:42:56Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Reverse engineering learned optimizers reveals known and novel
mechanisms [50.50540910474342]
学習は最適化問題を解決するために自らを訓練できるアルゴリズムである。
実験の結果は,学習の動作方法に関するそれまでの曖昧な理解を解明し,今後の学習を解釈するためのツールを確立するのに役立つ。
論文 参考訳(メタデータ) (2020-11-04T07:12:43Z) - Descending through a Crowded Valley - Benchmarking Deep Learning
Optimizers [29.624308090226375]
本研究は,これらの逸話を,少なくとも証拠に裏付けられた逸話に置き換えることを目的としている。
そのために、特に人気のある15のディープラーニングの、広範囲で標準化されたベンチマークを実行します。
我々のオープンソースの成果は、新しい最適化手法のより有意義な評価のために、挑戦的でよく調整されたベースラインとして利用可能である。
論文 参考訳(メタデータ) (2020-07-03T08:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。