論文の概要: A Weighted Population Update Rule for PACO Applied to the Single Machine
Total Weighted Tardiness Problem
- arxiv url: http://arxiv.org/abs/2004.08433v1
- Date: Fri, 17 Apr 2020 19:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 12:59:28.407123
- Title: A Weighted Population Update Rule for PACO Applied to the Single Machine
Total Weighted Tardiness Problem
- Title(参考訳): 単一機械全重み付きターダネス問題に適用したpacoの重み付き人口更新ルール
- Authors: Daniel Abitz, Tom Hartmann, Martin Middendorf
- Abstract要約: 集団ベースのアリコロニー最適化(PACO)のための新しい集団更新ルールを提案する。
単機全重重重み問題(SMTWTP)の例として,PACOの評価を行った。
その結果,PACOと新しい更新規則は,標準更新規則のPACOよりも平均的なソリューション品質が向上していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper a new population update rule for population based ant colony
optimization (PACO) is proposed. PACO is a well known alternative to the
standard ant colony optimization algorithm. The new update rule allows to
weight different parts of the solutions. PACO with the new update rule is
evaluated for the example of the single machine total weighted tardiness
problem (SMTWTP). This is an $\mathcal{NP}$-hard optimization problem where the
aim is to schedule jobs on a single machine such that their total weighted
tardiness is minimized. PACO with the new population update rule is evaluated
with several benchmark instances from the OR-Library. Moreover, the impact of
the weights of the jobs on the solutions in the population and on the
convergence of the algorithm are analyzed experimentally. The results show that
PACO with the new update rule has on average better solution quality than PACO
with the standard update rule.
- Abstract(参考訳): 本稿では,集団ベースのアリコロニー最適化(PACO)のための新しい集団更新ルールを提案する。
PACOは標準的なアリコロニー最適化アルゴリズムの代替としてよく知られている。
新しいアップデートルールにより、ソリューションのさまざまな部分の重み付けが可能になる。
更新ルールが更新されたPACOは、SMTWTP(Single Machine total weighted tardiness problem)の例として評価される。
これは$\mathcal{NP}$-hard optimization problemであり、単一のマシン上でジョブをスケジュールすることを目的としており、その総重み付けタドネスを最小化する。
新しい人口更新ルールを持つPACOは、OR-Libraryのベンチマークインスタンスで評価される。
さらに,ジョブの重み付けが集団の解とアルゴリズムの収束に与える影響を実験的に解析した。
その結果,PACOと新しい更新規則は,標準更新規則のPACOよりも平均的なソリューション品質が向上していることがわかった。
関連論文リスト
- Improving Generalization of Complex Models under Unbounded Loss Using PAC-Bayes Bounds [10.94126149188336]
PAC-Bayes学習理論は、テストエラーの厳密な上限を確立することに重点を置いている。
PAC-Bayesトレーニングと呼ばれる最近提案されたトレーニング手順は、これらの境界を最小化するためにモデルを更新する。
このアプローチは理論的に健全であり、実際は、経験的リスク最小化(ERM)によって得られたものほど、テストエラーを達成していない。
PAC-Bayes トレーニングアルゴリズムを導入し,性能向上と事前チューニングへの依存度低減を実現した。
論文 参考訳(メタデータ) (2023-05-30T17:31:25Z) - BALPA: A Balanced Primal-Dual Algorithm for Nonsmooth Optimization with
Application to Distributed Optimization [39.67743321086165]
等式制約のある合成最適化問題に対して,新しい原始二元近位分割アルゴリズム (PD-PSA) を提案する。
BALPAでは、二重更新は時間変化の二次関数の近点として設計され、原始的および二重更新の実装のバランスをとる。
本稿では,BALPA(S-BALPA)のバージョンを提案し,新たな分散最適化アルゴリズムの開発にBALPAを適用した。
論文 参考訳(メタデータ) (2022-12-06T09:18:31Z) - Faster Last-iterate Convergence of Policy Optimization in Zero-Sum
Markov Games [63.60117916422867]
本稿では,対戦型マルチエージェントRLの最も基本的な設定,すなわち2プレーヤゼロサムマルコフゲームに焦点を当てる。
両エージェントから対称更新を施した単一ループポリシー最適化手法を提案し,この手法はエントロピー規則化楽観的乗算重み更新法(OMWU)によって更新される。
我々の収束結果は、最もよく知られた複雑性を改善し、競合するマルコフゲームにおけるポリシー最適化をよりよく理解する。
論文 参考訳(メタデータ) (2022-10-03T16:05:43Z) - Policy Optimization for Markov Games: Unified Framework and Faster
Convergence [81.3266426402464]
このアルゴリズムのステートワイド平均ポリシはゲームの近似ナッシュ平衡(NE)に収束することを示す。
このアルゴリズムをマルチプレイヤー一般のMarkov Gamesに拡張し、CCE(Correlated Equilibria)への$mathcalwidetildeO(T-1/2)$収束率を示す。
論文 参考訳(メタデータ) (2022-06-06T14:23:13Z) - Cautious Policy Programming: Exploiting KL Regularization in Monotonic
Policy Improvement for Reinforcement Learning [11.82492300303637]
本稿では,学習中の単調な政策改善を確実にする,新しい値ベース強化学習(RL)アルゴリズムを提案する。
提案アルゴリズムは,古典的操作問題と高次元アタリゲームの両方において,性能と安定性を両立させることができることを示す。
論文 参考訳(メタデータ) (2021-07-13T01:03:10Z) - Control Variates for Slate Off-Policy Evaluation [112.35528337130118]
多次元動作を伴うバッチ化されたコンテキスト帯域データから政治外評価の問題について検討する。
我々は, PIと自己正規化PIの双方に対して, リスク改善を保証した新しい推定器を得る。
論文 参考訳(メタデータ) (2021-06-15T06:59:53Z) - Doubly Robust Off-Policy Actor-Critic: Convergence and Optimality [131.45028999325797]
ディスカウント型MDPのための2倍堅牢なオフポリチックAC(DR-Off-PAC)を開発した。
DR-Off-PACは、俳優と批評家の両方が一定のステップで同時に更新される単一のタイムスケール構造を採用しています。
有限時間収束速度を研究し, dr-off-pac のサンプル複雑性を特徴とし, $epsilon$-accurate optimal policy を得る。
論文 参考訳(メタデータ) (2021-02-23T18:56:13Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Cross-Iteration Batch Normalization [67.83430009388678]
本稿では,CBN(Cross-It Batch Normalization)を提案する。
CBNは、提案した補償手法を使わずに、元のバッチ正規化と過去の繰り返しの統計の直接計算より優れていた。
論文 参考訳(メタデータ) (2020-02-13T18:52:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。