論文の概要: optimizn: a Python Library for Developing Customized Optimization Algorithms
- arxiv url: http://arxiv.org/abs/2503.00033v1
- Date: Tue, 25 Feb 2025 02:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-09 03:20:21.519600
- Title: optimizn: a Python Library for Developing Customized Optimization Algorithms
- Title(参考訳): optimizn: カスタマイズ最適化アルゴリズムを開発するPythonライブラリ
- Authors: Akshay Sathiya, Rohit Pandey,
- Abstract要約: optimiznは、最適化アルゴリズムのパラダイムの下でカスタマイズされた最適化アルゴリズムを開発するためのPythonライブラリである。
Opimiznは継続的トレーニングを提供しており、ユーザーはアルゴリズムを通常のケイデンスで実行し、以前の実行の健全な側面を維持し、その後の実行で使用して、最適性に近づいたソリューションを生成することができる。
- 参考スコア(独自算出の注目度): 1.935854617866948
- License:
- Abstract: Combinatorial optimization problems are prevalent across a wide variety of domains. These problems are often nuanced, their optimal solutions might not be efficiently obtainable, and they may require lots of time and compute resources to solve (they are NP-hard). It follows that the best course of action for solving these problems is to use general optimization algorithm paradigms to quickly and easily develop algorithms that are customized to these problems and can produce good solutions in a reasonable amount of time. In this paper, we present optimizn, a Python library for developing customized optimization algorithms under general optimization algorithm paradigms (simulated annealing, branch and bound). Additionally, optimizn offers continuous training, with which users can run their algorithms on a regular cadence, retain the salient aspects of previous runs, and use them in subsequent runs to potentially produce solutions that get closer and closer to optimality. An earlier version of this paper was peer reviewed and published internally at Microsoft.
- Abstract(参考訳): 組合せ最適化問題は、様々な領域にまたがっている。
これらの問題はしばしばニュアンス化され、その最適解は効率的に得られず、解くのに多くの時間と計算資源を必要とする(NPハードである)。
これらの問題を解決するための最善の方法は、一般的な最適化アルゴリズムのパラダイムを使用して、これらの問題にカスタマイズされたアルゴリズムを迅速かつ容易に開発し、妥当な時間で優れた解を生成することである。
本稿では,最適化アルゴリズムの最適化アルゴリズム(シミュレーションアニーリング,ブランチ,バウンド)に基づいて,最適化アルゴリズムを最適化するPythonライブラリであるOptimiznを提案する。
さらにOptimiznは、ユーザーが通常のケイデンスでアルゴリズムを実行し、以前の実行の健全な側面を維持し、その後の実行でそれらを使用して、最適性に近づいたソリューションを生成する、継続的トレーニングも提供する。
この論文の以前のバージョンは、Microsoft社内でピアレビューされ、公開された。
関連論文リスト
- Learning Multiple Initial Solutions to Optimization Problems [52.9380464408756]
厳密なランタイム制約の下で、同様の最適化問題を順次解決することは、多くのアプリケーションにとって不可欠である。
本稿では,問題インスタンスを定義するパラメータが与えられた初期解を多種多様に予測する学習を提案する。
提案手法は,すべての評価設定において有意かつ一貫した改善を実現し,必要な初期解の数に応じて効率よくスケールできることを実証した。
論文 参考訳(メタデータ) (2024-11-04T15:17:19Z) - Quality-Diversity Algorithms Can Provably Be Helpful for Optimization [24.694984679399315]
QD(Quality-Diversity)アルゴリズムは、ハイパフォーマンスだが多様なソリューションのセットを見つけることを目的としている。
本稿では,厳密な実行時間解析によってQDアルゴリズムの最適化能力に光を当てようとしている。
論文 参考訳(メタデータ) (2024-01-19T07:40:24Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Socio-cognitive Optimization of Time-delay Control Problems using
Evolutionary Metaheuristics [89.24951036534168]
メタヒューリスティックス(Metaheuristics)は、古典的なアプローチでは解決できない難解な問題を解くために使用される普遍的な最適化アルゴリズムである。
本稿では,キャストに基づく新しい社会認知メタヒューリスティックの構築を目標とし,このアルゴリズムのいくつかのバージョンを時間遅延システムモデルの最適化に適用する。
論文 参考訳(メタデータ) (2022-10-23T22:21:10Z) - Fast Re-Optimization of LeadingOnes with Frequent Changes [0.9281671380673306]
Doerrらによって提案された再最適化アプローチは、問題インスタンスがより頻繁な変更の傾向にある場合に限界に達することを示す。
本稿では,前ベスト周辺における欲求探索と現在ベスト解を補間するアルゴリズムの修正を提案する。
論文 参考訳(メタデータ) (2022-09-09T16:51:41Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Learning to Optimize Under Constraints with Unsupervised Deep Neural
Networks [0.0]
機械学習(ML)手法を提案し,汎用的制約付き連続最適化問題の解法を学習する。
本稿では,制約付き最適化問題をリアルタイムに解くための教師なしディープラーニング(DL)ソリューションを提案する。
論文 参考訳(メタデータ) (2021-01-04T02:58:37Z) - Optimizing Optimizers: Regret-optimal gradient descent algorithms [9.89901717499058]
我々は,後悔最適アルゴリズムの存在,一意性,一貫性について検討する。
制御問題に対する一階最適条件を提供することにより、後悔最適アルゴリズムはそれらの力学において特定の構造を満たす必要があることを示す。
それらを近似する高速な数値法を提案し,長期的後悔を直接最適化する最適化アルゴリズムを生成する。
論文 参考訳(メタデータ) (2020-12-31T19:13:53Z) - Benchmarking Meta-heuristic Optimization [0.0]
多くのメタヒューリスティックアルゴリズムは非線形関数を解く際に非常に効率的である。
メタヒューリスティックアルゴリズムは、幅広い問題に適用できる問題に依存しない手法である。
論文 参考訳(メタデータ) (2020-07-27T12:25:31Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。