論文の概要: Symbolic Learning to Optimize: Towards Interpretability and Scalability
- arxiv url: http://arxiv.org/abs/2203.06578v2
- Date: Wed, 16 Mar 2022 20:31:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 10:46:14.523231
- Title: Symbolic Learning to Optimize: Towards Interpretability and Scalability
- Title(参考訳): 最適化のためのシンボリックラーニング:解釈可能性とスケーラビリティを目指して
- Authors: Wenqing Zheng, Tianlong Chen, Ting-Kuei Hu, Zhangyang Wang
- Abstract要約: 近年のL2O(Learning to Optimize)研究は,複雑なタスクに対する最適化手順の自動化と高速化に期待できる道のりを示唆している。
既存のL2Oモデルは、ニューラルネットワークによる最適化ルールをパラメータ化し、メタトレーニングを通じてそれらの数値ルールを学ぶ。
本稿では,L2Oの総合的な記号表現と解析の枠組みを確立する。
そこで本稿では,大規模問題にメタトレーニングを施す軽量なL2Oモデルを提案する。
- 参考スコア(独自算出の注目度): 113.23813868412954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on Learning to Optimize (L2O) suggest a promising path to
automating and accelerating the optimization procedure for complicated tasks.
Existing L2O models parameterize optimization rules by neural networks, and
learn those numerical rules via meta-training. However, they face two common
pitfalls: (1) scalability: the numerical rules represented by neural networks
create extra memory overhead for applying L2O models, and limit their
applicability to optimizing larger tasks; (2) interpretability: it is unclear
what an L2O model has learned in its black-box optimization rule, nor is it
straightforward to compare different L2O models in an explainable way. To avoid
both pitfalls, this paper proves the concept that we can "kill two birds by one
stone", by introducing the powerful tool of symbolic regression to L2O. In this
paper, we establish a holistic symbolic representation and analysis framework
for L2O, which yields a series of insights for learnable optimizers. Leveraging
our findings, we further propose a lightweight L2O model that can be
meta-trained on large-scale problems and outperformed human-designed and tuned
optimizers. Our work is set to supply a brand-new perspective to L2O research.
Codes are available at:
https://github.com/VITA-Group/Symbolic-Learning-To-Optimize.
- Abstract(参考訳): 近年のL2O(Learning to Optimize)研究は,複雑なタスクに対する最適化手順の自動化と高速化に期待できる道のりを示唆している。
既存のL2Oモデルは、ニューラルネットワークによる最適化ルールをパラメータ化し、メタトレーニングを通じてそれらの数値ルールを学ぶ。
スケーラビリティ: ニューラルネットワークで表される数値ルールは、L2Oモデルを適用するための余分なメモリオーバーヘッドを生成し、より大きなタスクを最適化するためにそれらの適用性を制限します。
両者の落とし穴を避けるため,本論文では,l2o に記号回帰の強力なツールを導入することで,「1石で2羽の鳥を殺す」ことができるという概念を実証する。
本稿では,L2Oの総合的な記号表現と解析の枠組みを構築し,学習可能なオプティマイザに一連の洞察を与える。
また,本研究の成果を生かして,大規模問題にメタトレーニングを施す軽量なL2Oモデルを提案する。
我々の研究は、l2o研究に新しい視点を提供する予定です。
コードは、https://github.com/VITA-Group/Symbolic-Learning-To-Optimizeで入手できる。
関連論文リスト
- Towards Constituting Mathematical Structures for Learning to Optimize [101.80359461134087]
近年,機械学習を利用してデータから最適化アルゴリズムを自動学習する技術が注目されている。
ジェネリックL2Oアプローチは反復更新ルールをパラメータ化し、ブラックボックスネットワークとして更新方向を学ぶ。
一般的なアプローチは広く適用できるが、学習されたモデルは過度に適合し、配布外テストセットにうまく一般化できない。
本稿では, 分布外問題に対して広く適用でき, 一般化された, 数学に着想を得た構造を持つ新しいL2Oモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T19:37:28Z) - M-L2O: Towards Generalizable Learning-to-Optimize by Test-Time Fast
Self-Adaptation [145.7321032755538]
L2O(Learning to Optimize)は、複雑なタスクの最適化手順を著しく加速させるため、注目を集めている。
本稿では, アウト・オブ・ディストリビューションタスクへの高速なテスト時間自己適応を実現するL2Oをメタトレーニングすることで, このオープンな課題に対する潜在的な解決策を検討する。
論文 参考訳(メタデータ) (2023-02-28T19:23:20Z) - Learning to Generalize Provably in Learning to Optimize [185.71326306329678]
最適化学習(L2O)は、データ駆動アプローチによる最適化設計を自動化することで、人気が高まっている。
現在のL2O法は、少なくとも2回は一般化性能の低下に悩まされることが多い。
我々はこの2つのメトリクスを平坦性を考慮した正規化器としてL2Oフレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-02-22T01:17:31Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Training Stronger Baselines for Learning to Optimize [119.35557905664832]
最も単純なL2Oモデルであっても、より優れたトレーニングが可能であることを示します。
我々は、分析学の振る舞いを参考にして、非政治模倣学習を利用してL2O学習を指導する。
改良されたトレーニング技術は、様々な最先端のL2Oモデルにプラグインされ、即座に性能が向上する。
論文 参考訳(メタデータ) (2020-10-18T20:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。