論文の概要: Explainable Benchmarking for Iterative Optimization Heuristics
- arxiv url: http://arxiv.org/abs/2401.17842v1
- Date: Wed, 31 Jan 2024 14:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:28:15.277155
- Title: Explainable Benchmarking for Iterative Optimization Heuristics
- Title(参考訳): 反復最適化ヒューリスティックスのための説明可能なベンチマーク
- Authors: Niki van Stein, Diederick Vermetten, Anna V. Kononova, Thomas B\"ack
- Abstract要約: 我々は、様々な最適化アルゴリズムの性能を分析し、理解するためのIOH-Xplainerソフトウェアフレームワークを紹介する。
さまざまなアルゴリズムコンポーネントと構成の影響を調査し、さまざまなシナリオにおけるパフォーマンスに関する洞察を提供する。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Benchmarking heuristic algorithms is vital to understand under which
conditions and on what kind of problems certain algorithms perform well. In
most current research into heuristic optimization algorithms, only a very
limited number of scenarios, algorithm configurations and hyper-parameter
settings are explored, leading to incomplete and often biased insights and
results. This paper presents a novel approach we call explainable benchmarking.
Introducing the IOH-Xplainer software framework, for analyzing and
understanding the performance of various optimization algorithms and the impact
of their different components and hyper-parameters. We showcase the framework
in the context of two modular optimization frameworks. Through this framework,
we examine the impact of different algorithmic components and configurations,
offering insights into their performance across diverse scenarios. We provide a
systematic method for evaluating and interpreting the behaviour and efficiency
of iterative optimization heuristics in a more transparent and comprehensible
manner, allowing for better benchmarking and algorithm design.
- Abstract(参考訳): ヒューリスティックアルゴリズムのベンチマークは、どの条件下でどのアルゴリズムがうまく機能するかを理解するのに不可欠である。
ヒューリスティック最適化アルゴリズムに関する最近のほとんどの研究では、非常に限られたシナリオ、アルゴリズムの設定、ハイパーパラメータ設定が探索され、不完全でしばしばバイアスのある洞察と結果をもたらす。
本稿では、説明可能なベンチマークと呼ばれる新しいアプローチを提案する。
IOH-Xplainerソフトウェアフレームワークを導入し、様々な最適化アルゴリズムのパフォーマンスを分析し、理解し、異なるコンポーネントとハイパーパラメータの影響を理解する。
このフレームワークを2つのモジュール化最適化フレームワークのコンテキストで紹介する。
このフレームワークを通じて、さまざまなアルゴリズムコンポーネントと構成の影響を調べ、さまざまなシナリオにおけるパフォーマンスに関する洞察を提供する。
より透明で理解しやすい方法で反復最適化ヒューリスティックスの振る舞いと効率を評価・解釈し、より良いベンチマークとアルゴリズム設計を可能にする体系的な方法を提案する。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - Beyond Single-Model Views for Deep Learning: Optimization versus
Generalizability of Stochastic Optimization Algorithms [13.134564730161983]
本稿では、勾配降下(SGD)とその変種に着目し、ディープラーニングの最適化に新しいアプローチを採用する。
我々はSGDとその変種がSAMのような平らなミニマと同等の性能を示すことを示した。
本研究は、トレーニング損失とホールドアウト精度の関係、およびSGDとノイズ対応変種の性能について、いくつかの重要な知見を明らかにした。
論文 参考訳(メタデータ) (2024-03-01T14:55:22Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Benchmarking Algorithms for Submodular Optimization Problems Using
IOHProfiler [22.08617448389877]
本稿では,部分モジュラ最適化問題に対するベンチマークアルゴリズムのセットアップを提案する。
その焦点は反復探索アルゴリズムの開発であり、実装はIOHknownrに提供され、統合されている。
提案手法は,IOHファウンサーに組み込まれている様々な部分モジュラ最適化問題について述べるとともに,反復探索アルゴリズムを様々な設定で解析・比較するために,その設定をどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-02-02T23:36:23Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Optimum-statistical Collaboration Towards General and Efficient
Black-box Optimization [23.359363844344408]
最適化過程において,最適化誤差フラックスと統計的誤差フラックスとの相互作用を管理するアルゴリズムフレームワークを導入する。
我々のフレームワークとその分析は、異なる局所的滑らかさの仮定を満たす関数と分割の大きなファミリーに適用できる。
理論的には、局所的滑らかさの仮定が異なる条件下で、アルゴリズムが速度-最適後悔境界を楽しむことを証明する。
論文 参考訳(メタデータ) (2021-06-17T02:37:39Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - A Unifying View of Optimism in Episodic Reinforcement Learning [18.73198634652064]
本稿では,楽観的な強化学習アルゴリズムの設計,解析,実装のためのフレームワークを提供する。
楽観的なMDPを構成する任意のモデル最適化アルゴリズムは、値最適化動的プログラミングアルゴリズムとして等価な表現を持つ。
論文 参考訳(メタデータ) (2020-07-03T18:10:30Z) - Benchmarking for Metaheuristic Black-Box Optimization: Perspectives and
Open Challenges [0.0]
新たな最適化アルゴリズムの研究は、そのようなアルゴリズムが現実世界や産業に関係のある課題に対処する能力を改善するという動機に基づいていることが多い。
多くのテスト問題とベンチマークスイートが開発され、アルゴリズムの比較評価に利用されている。
論文 参考訳(メタデータ) (2020-07-01T15:09:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。