論文の概要: Machine learning for improving performance in an evolutionary algorithm
for minimum path with uncertain costs given by massively simulated scenarios
- arxiv url: http://arxiv.org/abs/2102.01830v1
- Date: Wed, 3 Feb 2021 01:38:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 22:30:54.920968
- Title: Machine learning for improving performance in an evolutionary algorithm
for minimum path with uncertain costs given by massively simulated scenarios
- Title(参考訳): 大規模シミュレーションシナリオが与える不確実なコストを伴う最小経路の進化的アルゴリズムの性能向上のための機械学習
- Authors: Ricardo Di Pasquale and Javier Marenco
- Abstract要約: 本稿では,機械学習技術が最適化問題に対する進化的アルゴリズムの全体的な性能向上に役立った実装を提案する。
このビッグデータ最適化問題では、利用可能なシナリオ(シミュレーションプロセスによって生成される)のセットから、ほとんどのシナリオで優れたコストを達成するパスを得る必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work we introduce an implementation for which machine learning
techniques helped improve the overall performance of an evolutionary algorithm
for an optimization problem, namely a variation of robust minimum-cost path in
graphs. In this big data optimization problem, a path achieving a good cost in
most scenarios from an available set of scenarios (generated by a simulation
process) must be obtained. The most expensive task of our evolutionary
algorithm, in terms of computational resources, is the evaluation of candidate
paths: the fitness function must calculate the cost of the candidate path in
every generated scenario. Given the large number of scenarios, this task must
be implemented in a distributed environment. We implemented gradient boosting
decision trees to classify candidate paths in order to identify good
candidates. The cost of the not-so-good candidates is simply forecasted. We
studied the training process, gain performance, accuracy, and other variables.
Our computational experiments show that the computational performance was
significantly improved at the expense of a limited loss of accuracy.
- Abstract(参考訳): 本稿では,機械学習手法が最適化問題に対する進化的アルゴリズムの全体的な性能向上に寄与する実装,すなわちグラフにおけるロバストな最小コストパスの変動について紹介する。
このビッグデータ最適化問題では、利用可能なシナリオ(シミュレーションプロセスによって生成される)のセットから、ほとんどのシナリオで優れたコストを達成するパスを得る必要がある。
進化的アルゴリズムの最も高価な課題は、計算資源の観点から、候補経路の評価である: 適合関数は、生成されたシナリオ毎に候補経路のコストを計算する必要がある。
多くのシナリオを考えると、このタスクは分散環境で実装されなければならない。
我々は,良い候補を特定するために,候補パスを分類するために勾配強化決定木を実装した。
あまり良い候補のコストは単純に予測される。
トレーニングプロセス、パフォーマンス、精度、その他の変数を研究しました。
計算実験の結果,精度の低下を犠牲にして計算性能が大幅に向上したことがわかった。
関連論文リスト
- Cost-Aware Query Policies in Active Learning for Efficient Autonomous Robotic Exploration [0.0]
本稿では,動作コストを考慮しつつ,ガウス過程回帰のためのALアルゴリズムを解析する。
距離制約を持つ伝統的な不確実性計量は、軌道距離上のルート平均二乗誤差を最小化する。
論文 参考訳(メタデータ) (2024-10-31T18:35:03Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Practical Layout-Aware Analog/Mixed-Signal Design Automation with
Bayesian Neural Networks [5.877728608070716]
多くの学習ベースのアルゴリズムは数千のシミュレーションデータポイントを必要とするが、回路をシミュレートするには高価ではない。
そこで本研究では,少量のデータを用いて学習可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-27T19:02:43Z) - Score-Based Methods for Discrete Optimization in Deep Learning [30.446056972242616]
このような問題を解決するためのスコアベース近似フレームワークについて検討する。
逆集合分類タスクにおいて,本手法は,手法に比べて速度と解の質において優れたトレードオフを達成できることを実験的に実証した。
論文 参考訳(メタデータ) (2023-10-15T17:14:17Z) - Speeding-up Evolutionary Algorithms to solve Black-Box Optimization
Problems [0.0]
集団ベースの進化的アルゴリズムは計算コストの高いブラックボックス最適化問題にアプローチする際によく考慮される。
最適化アルゴリズムの実行時に適切な近似関数コストを選択する技術を提案する。
提案手法は, 解が適切にランク付けされている場合の最小評価コストを推定し, 精度の低下を最小限に抑えながら, 同一時間でより多くの評価を計算できることを示した。
論文 参考訳(メタデータ) (2023-09-23T11:54:46Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - Trajectory-based Algorithm Selection with Warm-starting [2.3823600586675724]
本研究では,アルゴリズムの性能予測シナリオにおいて,性能回帰モデルとアルゴリズム選択モデルの品質と精度について検討する。
ウォームスタートを用いたトラジェクトリベースラン毎のアルゴリズム選択の有望な性能を示す。
論文 参考訳(メタデータ) (2022-04-13T14:00:55Z) - Minimax Optimization with Smooth Algorithmic Adversaries [59.47122537182611]
対戦相手が展開するスムーズなアルゴリズムに対して,Min-playerの新しいアルゴリズムを提案する。
本アルゴリズムは,制限周期のない単調進行を保証し,適切な勾配上昇数を求める。
論文 参考訳(メタデータ) (2021-06-02T22:03:36Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。