論文の概要: Introduction to Online Convex Optimization
- arxiv url: http://arxiv.org/abs/1909.05207v3
- Date: Sun, 6 Aug 2023 14:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 01:43:04.952148
- Title: Introduction to Online Convex Optimization
- Title(参考訳): オンライン凸最適化入門
- Authors: Elad Hazan
- Abstract要約: この写本は最適化をプロセスとして描いている。
多くの実践的な応用において、環境は非常に複雑であり、包括的な理論モデルを構築することは不可能である。
- 参考スコア(独自算出の注目度): 31.771131314017385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This manuscript portrays optimization as a process. In many practical
applications the environment is so complex that it is infeasible to lay out a
comprehensive theoretical model and use classical algorithmic theory and
mathematical optimization. It is necessary as well as beneficial to take a
robust approach, by applying an optimization method that learns as one goes
along, learning from experience as more aspects of the problem are observed.
This view of optimization as a process has become prominent in varied fields
and has led to some spectacular success in modeling and systems that are now
part of our daily lives.
- Abstract(参考訳): この写本は最適化をプロセスとして描いている。
多くの実用的な応用において、環境は非常に複雑であり、包括的理論モデルを構築し、古典的アルゴリズム理論と数学的最適化を使うことは不可能である。
順調なアプローチを取るためには,順調に学習する最適化手法を適用すること,問題のさらなる側面を観察する上で経験から学ぶこと,といったメリットもある。
プロセスとしての最適化という考え方は様々な分野で目立ってきており、今や私たちの日常生活の一部となっているモデリングやシステムで目覚ましい成功を収めています。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Enhancing Deep Learning with Optimized Gradient Descent: Bridging Numerical Methods and Neural Network Training [0.036651088217486416]
本稿では,最適化理論とディープラーニングの関係について考察する。
ニューラルネットワークの基盤となる変種を強調して、降下アルゴリズムの強化を導入する。
多様なディープラーニングタスクに関する実験は、改良されたアルゴリズムの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-09-07T04:37:20Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Socio-cognitive Optimization of Time-delay Control Problems using
Evolutionary Metaheuristics [89.24951036534168]
メタヒューリスティックス(Metaheuristics)は、古典的なアプローチでは解決できない難解な問題を解くために使用される普遍的な最適化アルゴリズムである。
本稿では,キャストに基づく新しい社会認知メタヒューリスティックの構築を目標とし,このアルゴリズムのいくつかのバージョンを時間遅延システムモデルの最適化に適用する。
論文 参考訳(メタデータ) (2022-10-23T22:21:10Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Tutorial on amortized optimization [13.60842910539914]
このチュートリアルでは、これらの進歩の背後にある償却最適化の基礎について紹介する。
変分推論、スパース符号化、勾配に基づくメタラーニング、制御、強化学習、凸最適化、最適輸送、深い平衡ネットワークにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2022-02-01T18:58:33Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。