論文の概要: Generating Instances with Performance Differences for More Than Just Two
Algorithms
- arxiv url: http://arxiv.org/abs/2104.14275v1
- Date: Thu, 29 Apr 2021 11:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-02 02:20:06.947166
- Title: Generating Instances with Performance Differences for More Than Just Two
Algorithms
- Title(参考訳): たった2つのアルゴリズムでパフォーマンスの違いのあるインスタンスを生成する
- Authors: Jakob Bossek, Markus Wagner
- Abstract要約: 本稿では,2つ以上のアルゴリズムに対して,同時に大きな性能差を示すインスタンスを進化させるフィットネス関数を提案する。
原理の証明として、3つの不完全TTP解法に対する多成分トラベリングティーフ問題(TTP)のインスタンスを進化させる。
- 参考スコア(独自算出の注目度): 2.061388741385401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Evolutionary Algorithms (EAs) have frequently been adopted
to evolve instances for optimization problems that pose difficulties for one
algorithm while being rather easy for a competitor and vice versa. Typically,
this is achieved by either minimizing or maximizing the performance difference
or ratio which serves as the fitness function. Repeating this process is useful
to gain insights into strengths/weaknesses of certain algorithms or to build a
set of instances with strong performance differences as a foundation for
automatic per-instance algorithm selection or configuration. We contribute to
this branch of research by proposing fitness-functions to evolve instances that
show large performance differences for more than just two algorithms
simultaneously. As a proof-of-principle, we evolve instances of the
multi-component Traveling Thief Problem~(TTP) for three incomplete TTP-solvers.
Our results point out that our strategies are promising, but unsurprisingly
their success strongly relies on the algorithms' performance complementarity.
- Abstract(参考訳): 近年、進化的アルゴリズム(EA)は、1つのアルゴリズムに困難をもたらす最適化問題のインスタンスを進化させるために頻繁に採用されている。
通常、これはフィットネス機能として機能する性能差や比率を最小化または最大化することで達成される。
このプロセスを繰り返すことは、特定のアルゴリズムの強みや弱さについての洞察を得るのに有用である。
我々は,2つのアルゴリズム以上の性能差を同時に示すインスタンスを進化させるために,フィットネス機能を提案することで,この研究の分野に貢献する。
原理の証明として、3つの不完全TTP解法に対する多成分トラベリングティーフ問題~(TTP)のインスタンスを進化させる。
我々の戦略は有望だが、当然ながらその成功はアルゴリズムの性能の相補性に強く依存している。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - Evolving Reliable Differentiating Constraints for the Chance-constrained Maximum Coverage Problem [8.98161858972433]
確率制約付きグラフにおける古典的最大カバレッジ問題について検討する。
我々のゴールは、アルゴリズムの性能が著しく異なるグラフに対する信頼性の高い確率制約設定を進化させることである。
本研究では、2つの探索アルゴリズムの性能を高い信頼性で区別する確率制約セットを提供する進化的アルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-05-29T05:22:31Z) - Performance of Genetic Algorithms in the Context of Software Model
Refactoring [1.3812010983144802]
本稿では,3つの遺伝的アルゴリズムの性能解析を行い,その性能と品質を比較検討する。
その結果,アルゴリズムの性能に有意な差が認められた。
論文 参考訳(メタデータ) (2023-08-26T13:25:42Z) - A Simple Evolutionary Algorithm for Multi-modal Multi-objective
Optimization [0.0]
マルチモーダル・多目的最適化問題(MMOP)を解くための定常進化アルゴリズムを提案する。
本報告では,1000関数評価の低計算予算を用いて,様々なテストスイートから得られた21個のMMOPの性能について報告する。
論文 参考訳(メタデータ) (2022-01-18T03:31:11Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Identifying Co-Adaptation of Algorithmic and Implementational
Innovations in Deep Reinforcement Learning: A Taxonomy and Case Study of
Inference-based Algorithms [15.338931971492288]
我々は、アルゴリズムの革新と実装決定を分離するために、一連の推論に基づくアクター批判アルゴリズムに焦点を当てる。
実装の詳細がアルゴリズムの選択に一致すると、パフォーマンスが大幅に低下します。
結果は、どの実装の詳細がアルゴリズムと共適応され、共進化しているかを示す。
論文 参考訳(メタデータ) (2021-03-31T17:55:20Z) - Generalization in portfolio-based algorithm selection [97.74604695303285]
ポートフォリオベースのアルゴリズム選択に関する最初の証明可能な保証を提供する。
ポートフォリオが大きければ、非常に単純なアルゴリズムセレクタであっても、過剰適合は避けられないことを示す。
論文 参考訳(メタデータ) (2020-12-24T16:33:17Z) - Efficient Computation of Expectations under Spanning Tree Distributions [67.71280539312536]
本稿では,エッジファクター,非プロジェクティブ・スパンニングツリーモデルにおいて,一階期待と二階期待の重要なケースに対する統一アルゴリズムを提案する。
我々のアルゴリズムは勾配と期待の基本的な関係を利用しており、効率的なアルゴリズムを導出することができる。
論文 参考訳(メタデータ) (2020-08-29T14:58:26Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Towards Dynamic Algorithm Selection for Numerical Black-Box
Optimization: Investigating BBOB as a Use Case [4.33419118449588]
シングルスウィッチな動的アルゴリズムの選択(dynAS)でさえ、大きな性能向上をもたらす可能性があることを示す。
また、dynASにおける重要な課題についても論じ、BBOBフレームワークがこれらを克服する上で有用なツールになり得ると論じる。
論文 参考訳(メタデータ) (2020-06-11T16:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。