論文の概要: On Solving Close Enough Orienteering Problem with Overlapped
Neighborhoods
- arxiv url: http://arxiv.org/abs/2310.04257v1
- Date: Fri, 6 Oct 2023 14:02:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 16:08:31.145457
- Title: On Solving Close Enough Orienteering Problem with Overlapped
Neighborhoods
- Title(参考訳): 重なり合う近傍での十分に近いオリエンテーリング問題の解法について
- Authors: Qiuchen Qian, Yanran Wang, David Boyle
- Abstract要約: 非一様ランダム化近傍( CEOP-N)の完全配向問題
本研究では,Particle Swarm Optimization (PSO) と Ant Colony System (ACS) - CRaSZe-AntS に基づくハイブリッドアルゴリズムを提案する。
以上の結果から, CRaSZe-AntSは, 単独の戦略に比べて, 時間を大幅に短縮できることがわかった。
- 参考スコア(独自算出の注目度): 3.360922672565235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Close Enough Traveling Salesman Problem (CETSP) is a well-known variant
of the classic Traveling Salesman Problem whereby the agent may complete its
mission at any point within a target neighborhood. Heuristics based on
overlapped neighborhoods, known as Steiner Zones (SZ), have gained attention in
addressing CETSPs. While SZs offer effective approximations to the original
graph, their inherent overlap imposes constraints on the search space,
potentially conflicting with global optimization objectives. Here we present
the Close Enough Orienteering Problem with Non-uniform Neighborhoods (CEOP-N),
which extends CETSP by introducing variable prize attributes and non-uniform
cost considerations for prize collection. To tackle CEOP-N, we develop a new
approach featuring a Randomized Steiner Zone Discretization (RSZD) scheme
coupled with a hybrid algorithm based on Particle Swarm Optimization (PSO) and
Ant Colony System (ACS) - CRaSZe-AntS. The RSZD scheme identifies sub-regions
for PSO exploration, and ACS determines the discrete visiting sequence. We
evaluate the RSZD's discretization performance on CEOP instances derived from
established CETSP instances, and compare CRaSZe-AntS against the most relevant
state-of-the-art heuristic focused on single-neighborhood optimization for
CEOP. We also compare the performance of the interior search within SZs and the
boundary search on individual neighborhoods in the context of CEOP-N. Our
results show CRaSZe-AntS can yield comparable solution quality with
significantly reduced computation time compared to the single-neighborhood
strategy, where we observe an averaged 140.44% increase in prize collection and
55.18% reduction of execution time. CRaSZe-AntS is thus highly effective in
solving emerging CEOP-N, examples of which include truck-and-drone delivery
scenarios.
- Abstract(参考訳): クローズ・エナフ・トラベリング・セールスマン問題(CETSP、Close Enough Traveling Salesman Problem)は、古典的なトラベリング・セールスマン問題(Traveing Salesman Problem)の変種であり、エージェントはターゲット地区内の任意の地点でミッションを完了することができる。
シュタイナーゾーン (Steiner Zones, SZ) と呼ばれる重複した地区に基づくヒューリスティックスは、CETSPへの対処において注目されている。
szsは元のグラフに効果的な近似を提供するが、それらの固有の重複は探索空間に制約を課し、潜在的にグローバル最適化の目的と矛盾する。
ここでは,CETSPを拡張した非一様近傍問題(CEOP-N)を提案する。
CEOP-N に取り組むために,粒子群最適化 (PSO) と Ant Colony System (ACS) - CRaSZe-AntS に基づくハイブリッドアルゴリズムを併用したランダム化されたスタイナーゾーン離散化 (RSZD) 方式の新たなアプローチを開発した。
RSZDスキームはPSO探索のサブリージョンを特定し、ACSは個別の訪問シーケンスを決定する。
CETSP インスタンスから派生した CEOP インスタンス上での RSZD の離散化性能を評価し,CRaSZe-AntS と CRaSZe-AntS を比較した。
また,SZの内部探索と各地区の境界探索の性能を,CEOP-Nの文脈で比較した。
以上の結果から,CRaSZe-AntSは単層式に比べて計算時間を大幅に削減し,平均140.44%の入賞率,55.18%の実行時間を削減できることがわかった。
CRaSZe-AntSは、トラックとドローンの配送シナリオを含む、新たなCEOP-Nの解決に非常に効果的である。
関連論文リスト
- Efficient Learning of POMDPs with Known Observation Model in Average-Reward Setting [56.92178753201331]
我々は,POMDPパラメータを信念に基づくポリシを用いて収集したサンプルから学習することのできる観測・認識スペクトル(OAS)推定手法を提案する。
提案するOAS-UCRLアルゴリズムに対して,OASプロシージャの整合性を示し,$mathcalO(sqrtT log(T)$の残差保証を証明した。
論文 参考訳(メタデータ) (2024-10-02T08:46:34Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Parameter optimization comparison in QAOA using Stochastic Hill Climbing with Random Re-starts and Local Search with entangled and non-entangled mixing operators [0.0]
本研究では,Hill Climbing with Random Restarts (SHC-RR) の有効性を検討した。
以上の結果から,SHC-RRはLSアプローチよりも優れており,より単純な最適化機構にもかかわらず優れた有効性を示した。
論文 参考訳(メタデータ) (2024-05-14T20:12:17Z) - Personalized Federated X -armed Bandit [44.7483638955294]
我々は、フェデレートされた$mathcalX$-armed bandit問題について検討し、フェデレート学習パラダイムにおいて、クライアントの異種局所目的を同時に最適化する。
本手法では,非最適領域を安全に除去すると同時に,非最適領域の偏りはあるが効果的な局所目的評価を通じて協調を奨励する。
論文 参考訳(メタデータ) (2023-10-25T03:11:32Z) - High-dimensional Contextual Bandit Problem without Sparsity [8.782204980889077]
本稿では,この問題に対処し,その性能を検証するための探索列コミット(EtC)アルゴリズムを提案する。
我々は、ETCアルゴリズムの最適レートを$T$で導出し、探索とエクスプロイトのバランスをとることで、このレートを実現できることを示す。
本稿では,最適バランスを適応的に求める適応探索定理 (AEtC) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T15:29:32Z) - High-Similarity-Pass Attention for Single Image Super-Resolution [81.56822938033118]
非局所的注意(NLA)分野における最近の進歩は、自己相似性に基づく単一画像超解像(SISR)への新たな関心につながっている。
高相似性パスアテンション(HSPA)を得るための簡潔で効果的なソフトしきい値設定操作を導入する。
HSPAの有効性を実証するため,我々はHSPAN(Deep High-Similarity-pass attention network)を構築した。
論文 参考訳(メタデータ) (2023-05-25T06:24:14Z) - On Reward-Free RL with Kernel and Neural Function Approximations:
Single-Agent MDP and Markov Game [140.19656665344917]
エージェントが事前に特定された報酬関数を使わずに環境を徹底的に探索することを目的とした報酬のないRL問題について検討する。
関数近似の文脈でこの問題に取り組み、強力な関数近似器を活用する。
我々は、カーネルとニューラルファンクション近似器を用いた、証明可能な効率の良い報酬なしRLアルゴリズムを確立した。
論文 参考訳(メタデータ) (2021-10-19T07:26:33Z) - Shortest-Path Constrained Reinforcement Learning for Sparse Reward Tasks [59.419152768018506]
最適ポリシーは必ずk-SP制約を満たすことを示す。
本研究では,SP制約に違反するポリシーを完全に排除する代わりに,新たなコスト関数を提案する。
また,MiniGrid,DeepMind Lab,Atari,Fetchを用いた実験の結果,提案手法はPPOを著しく改善することが示された。
論文 参考訳(メタデータ) (2021-07-13T21:39:21Z) - An Improved Approach for Estimating Social POI Boundaries With Textual
Attributes on Social Media [3.590202054885437]
ソーシャルメディア上のテキスト属性を利用して、密度ベースのクラスタリングを実行する方法が不十分に検討されている。
我々は、社会POI境界推定(SoBEst)に関する初期の研究に基づいて、新しいアプローチとアルゴリズムを提案する。
SoBEstが基本的に想定している各POIの固定された代表座標は、特定のPOIに対して推定された社会的POI境界の遠心点から遠く離れている可能性がある。
論文 参考訳(メタデータ) (2020-12-18T00:41:44Z) - CRPO: A New Approach for Safe Reinforcement Learning with Convergence
Guarantee [61.176159046544946]
安全強化学習(SRL)問題では、エージェントは期待される全報酬を最大化し、一定の制約の違反を避けるために環境を探索する。
これは、大域的最適ポリシーを持つSRLアルゴリズムの最初の分析である。
論文 参考訳(メタデータ) (2020-11-11T16:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。