論文の概要: A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning
- arxiv url: http://arxiv.org/abs/2006.06224v2
- Date: Sun, 21 Jun 2020 06:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:05:54.800621
- Title: A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning
- Title(参考訳): 信号処理と機械学習におけるゼロ次最適化のプライマー
- Authors: Sijia Liu, Pin-Yu Chen, Bhavya Kailkhura, Gaoyuan Zhang, Alfred Hero,
Pramod K. Varshney
- Abstract要約: ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
- 参考スコア(独自算出の注目度): 95.85269649177336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zeroth-order (ZO) optimization is a subset of gradient-free optimization that
emerges in many signal processing and machine learning applications. It is used
for solving optimization problems similarly to gradient-based methods. However,
it does not require the gradient, using only function evaluations.
Specifically, ZO optimization iteratively performs three major steps: gradient
estimation, descent direction computation, and solution update. In this paper,
we provide a comprehensive review of ZO optimization, with an emphasis on
showing the underlying intuition, optimization principles and recent advances
in convergence analysis. Moreover, we demonstrate promising applications of ZO
optimization, such as evaluating robustness and generating explanations from
black-box deep learning models, and efficient online sensor management.
- Abstract(参考訳): zeroth-order (zo) optimizationは、多くの信号処理や機械学習アプリケーションで現れる勾配なし最適化のサブセットである。
勾配法と同様に最適化問題を解くために用いられる。
しかし、関数評価のみを使用して、勾配を必要としない。
具体的には、ZO最適化は、勾配推定、降下方向計算、解更新の3つの主要なステップを反復的に実行する。
本稿では,ZO最適化の総合的なレビューを行い,その基礎となる直観,最適化原理,収束解析の最近の進歩について述べる。
さらに,ブラックボックス深層学習モデルによるロバスト性の評価や説明生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を示す。
関連論文リスト
- Two Optimizers Are Better Than One: LLM Catalyst Empowers Gradient-Based Optimization for Prompt Tuning [69.95292905263393]
我々は,勾配に基づく最適化と大規模言語モデル(MsLL)が相互補完的であることを示し,協調的な最適化手法を提案する。
私たちのコードはhttps://www.guozix.com/guozix/LLM-catalystでリリースされています。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Learning to Optimize Quasi-Newton Methods [22.504971951262004]
本稿では、最適化時に最適な事前条件をオンラインで学習するLODOと呼ばれる新しい機械学習を提案する。
他のL2Oメソッドとは異なり、LODOはトレーニングタスクの配布にメタトレーニングを一切必要としない。
この勾配は, 雑音場における逆 Hessian を近似し, 幅広い逆 Hessian を表現可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:47:14Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - First-Order Methods for Convex Optimization [2.578242050187029]
一階法は、計算量が少なくて精度の低い解を提供する可能性がある。
我々は、様々な重要な結果の完全な証明を行い、いくつかの最適化アルゴリズムの統一的な側面を強調した。
論文 参考訳(メタデータ) (2021-01-04T13:03:38Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。