論文の概要: Unified Framework for the Adaptive Operator Selection of Discrete
Parameters
- arxiv url: http://arxiv.org/abs/2005.05613v1
- Date: Tue, 12 May 2020 08:41:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:31:46.262943
- Title: Unified Framework for the Adaptive Operator Selection of Discrete
Parameters
- Title(参考訳): 離散パラメータの適応演算子選択のための統一フレームワーク
- Authors: Mudita Sharma, Manuel Lopez-Ibanez and Dimitar Kazakov
- Abstract要約: 進化的アルゴリズム(EA)における演算子(AOS)の適応的選択の徹底的な調査を行う。
既存のAOSメソッドの分類に基づいて構築されるフレームワークにより多くのコンポーネントを追加することで、AOS構造を単純化しました。
単純化に加えて,AOS手法間の共通点を文献から考察し,それらを一般化した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We conduct an exhaustive survey of adaptive selection of operators (AOS) in
Evolutionary Algorithms (EAs). We simplified the AOS structure by adding more
components to the framework to built upon the existing categorisation of AOS
methods. In addition to simplifying, we looked at the commonality among AOS
methods from literature to generalise them. Each component is presented with a
number of alternative choices, each represented with a formula. We make three
sets of comparisons. First, the methods from literature are tested on the BBOB
test bed with their default hyper parameters. Second, the hyper parameters of
these methods are tuned using an offline configurator known as IRACE. Third,
for a given set of problems, we use IRACE to select the best combination of
components and tune their hyper parameters.
- Abstract(参考訳): 進化的アルゴリズム(EA)における演算子(AOS)の適応選択の徹底的な調査を行う。
既存のAOSメソッドの分類に基づいて構築されるフレームワークにより多くのコンポーネントを追加することで、AOS構造を単純化しました。
単純化に加えて,文献からaos手法の共通性を考察し,一般化した。
各コンポーネントにはいくつかの選択肢があり、それぞれが式で表される。
我々は3つの比較を行う。
まず、文献からの手法をデフォルトのハイパーパラメータでBBOBテストベッドでテストする。
第二に、これらのメソッドのハイパーパラメータはIRACEと呼ばれるオフライン設定子を使って調整される。
第三に、与えられた問題の集合に対して、IRACEを使用してコンポーネントの最適な組み合わせを選択し、それらのハイパーパラメータをチューニングします。
関連論文リスト
- Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - A post-selection algorithm for improving dynamic ensemble selection
methods [6.59003008107689]
ポストセレクション動的アンサンブル選択(PS-DES)は、異なるメトリクスを用いて複数のDES技術によって選択されたアンサンブルを評価するポストセレクション方式である。
精度を基準としてアンサンブルを選択することで、PS-DESは個々のDES技術よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-09-25T17:25:39Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - A Comparative study of Hyper-Parameter Optimization Tools [2.6097538974670935]
我々は、4つのpythonライブラリ、すなわちOptuna、Hyperopt、Optunity、およびシーケンシャルモデルアルゴリズム構成(SMAC)の性能を比較した。
私たちは、OptunaがCASH問題とNeurIPSのブラックボックス最適化の課題に対してより良いパフォーマンスを持つことを発見した。
論文 参考訳(メタデータ) (2022-01-17T14:49:36Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - DyCo3D: Robust Instance Segmentation of 3D Point Clouds through Dynamic
Convolution [136.7261709896713]
本稿では,インスタンスの性質に応じて適切な畳み込みカーネルを生成するデータ駆動型アプローチを提案する。
提案手法はScanetNetV2とS3DISの両方で有望な結果が得られる。
また、現在の最先端よりも推論速度を25%以上向上させる。
論文 参考訳(メタデータ) (2020-11-26T14:56:57Z) - Feature Selection Methods for Cost-Constrained Classification in Random
Forests [3.4806267677524896]
コストに敏感な特徴選択は、機能選択の問題であり、モデルに含めるための個々のコストを上昇させる。
ランダムフォレスト(Random Forests)は、機能選択において特に困難な問題を定義している。
小木構造から特徴を選択する新しい高速多変量特徴選択法であるShallow Tree Selectionを提案する。
論文 参考訳(メタデータ) (2020-08-14T11:39:52Z) - Electre Tree A Machine Learning Approach to Infer Electre Tri B
Parameters [0.0]
本稿では,ELECTRE Tri-Bパラメータのすべての(あるいは任意の組み合わせを推論するアルゴリズムを提案する。
私たちのアプローチは、機械学習のアンサンブルテクニックであるランダムフォレストにインスパイアされています。
論文 参考訳(メタデータ) (2020-07-20T12:39:56Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z) - Atom Search Optimization with Simulated Annealing -- a Hybrid
Metaheuristic Approach for Feature Selection [29.765647724007827]
ハイブリッドメタヒューリスティックス(Hybrid meta-heuristics)は、最適化と特徴選択(FS)分野における最も興味深いトレンドの1つである。
我々は、ASO-SA(Atom Search Optimization)のバイナリ版と、FSのためのASO-SA(ASO-SA)技術と呼ばれるSimulated Annealing(Simulated Annealing)によるハイブリッドを提案した。
提案手法は, UCI, Handwriting digit recognition, Text, non-text separation, Facial emotion Recognitionの4つのカテゴリから25のデータセットに対して適用した。
論文 参考訳(メタデータ) (2020-05-10T07:56:58Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。