論文の概要: Navigating Intelligence: A Survey of Google OR-Tools and Machine Learning for Global Path Planning in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2503.03338v1
- Date: Wed, 05 Mar 2025 10:12:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:03.356197
- Title: Navigating Intelligence: A Survey of Google OR-Tools and Machine Learning for Global Path Planning in Autonomous Vehicles
- Title(参考訳): ナビゲーションインテリジェンス: 自動運転車のグローバルパス計画のためのGoogle ORツールと機械学習に関する調査
- Authors: Alexandre Benoit, Pedram Asef,
- Abstract要約: ROMIEと呼ばれる自律的な採鉱ロボットには,グローバルパスプランニングが不可欠である。
Q-Learningは最適な戦略であり、データセット全体の最適解から平均1.2%しか逸脱せず、優れた効率を示す。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License:
- Abstract: We offer a new in-depth investigation of global path planning (GPP) for unmanned ground vehicles, an autonomous mining sampling robot named ROMIE. GPP is essential for ROMIE's optimal performance, which is translated into solving the traveling salesman problem, a complex graph theory challenge that is crucial for determining the most effective route to cover all sampling locations in a mining field. This problem is central to enhancing ROMIE's operational efficiency and competitiveness against human labor by optimizing cost and time. The primary aim of this research is to advance GPP by developing, evaluating, and improving a cost-efficient software and web application. We delve into an extensive comparison and analysis of Google operations research (OR)-Tools optimization algorithms. Our study is driven by the goal of applying and testing the limits of OR-Tools capabilities by integrating Reinforcement Learning techniques for the first time. This enables us to compare these methods with OR-Tools, assessing their computational effectiveness and real-world application efficiency. Our analysis seeks to provide insights into the effectiveness and practical application of each technique. Our findings indicate that Q-Learning stands out as the optimal strategy, demonstrating superior efficiency by deviating only 1.2% on average from the optimal solutions across our datasets.
- Abstract(参考訳): 我々は,無人地上車両のグローバル・パス・プランニング(GPP)について,ROMIEという自律的な採鉱ロボットの詳細な調査を行っている。
GPPはROMIEの最適性能に不可欠であり、これは旅行セールスマン問題の解決に変換される。
この問題は、コストと時間を最適化することで、ROMIEの運用効率と人的労働に対する競争力を高めることの中心である。
本研究の主な目的は,コスト効率のよいソフトウェアやWebアプリケーションの開発,評価,改良により,GPPを向上することである。
Googleのオペレーティングリサーチ(OR)-ツール最適化アルゴリズムの広範な比較と分析について検討する。
本研究は,初めて強化学習技術を統合することで,ORツール能力の限界を適用し,テストすることを目的としている。
これにより、これらの手法をORツールと比較し、その計算効率と実世界のアプリケーション効率を評価することができる。
本分析では,各手法の有効性と実用性について考察する。
この結果から,Q-Learningが最適戦略として注目され,データセット全体の最適解から平均1.2%しか逸脱せず,優れた効率性を示すことが示唆された。
関連論文リスト
- Benchmarking global optimization techniques for unmanned aerial vehicle path planning [1.8416014644193066]
無人航空機(UAV)経路計画問題(Unmanned Aerial Vehicle)は、ロボット工学分野における複雑な最適化問題である。
本稿では,グローバル最適化手法のベンチマークにおいて,この問題の有効利用の可能性について検討する。
論文 参考訳(メタデータ) (2025-01-24T14:01:53Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Efficient Reinforcement Learning via Decoupling Exploration and Utilization [6.305976803910899]
強化学習(Reinforcement Learning, RL)は、ゲーム、ロボティクス、自動運転車など、さまざまな分野やアプリケーションで大きな成功を収めている。
本研究の目的は,探索と利用を分離して効率よく学習するエージェントを訓練することであり,エージェントが最適解の難解を逃れられるようにすることである。
提案したOPARL(Optimistic and Pessimistic Actor Reinforcement Learning)アルゴリズムに実装した。
論文 参考訳(メタデータ) (2023-12-26T09:03:23Z) - An Improved Artificial Fish Swarm Algorithm for Solving the Problem of
Investigation Path Planning [8.725702964289479]
多集団差分進化(DE-CAFSA)に基づくカオス人工魚群アルゴリズムを提案する。
適応的な視野とステップサイズ調整を導入し、ランダムな動作を2オプト操作に置き換え、カオス理論と準最適解を導入する。
実験結果から、DECAFSAは、異なる大きさの様々な公開データセット上で、他のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-20T09:35:51Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - A Reinforcement Learning Approach for Scheduling Problems With Improved
Generalization Through Order Swapping [0.0]
JSSP は NP-hard COP のカテゴリに分類される。
近年,COPの解法にDRLを用いる研究が注目され,解の質や計算効率の面で有望な結果が示されている。
特に、制約されたジョブのディスパッチにおいてよく機能すると考えられるポリシ・グラディエントパラダイムを採用するPPOアルゴリズムを採用する。
論文 参考訳(メタデータ) (2023-02-27T16:45:04Z) - Fighting the curse of dimensionality: A machine learning approach to
finding global optima [77.34726150561087]
本稿では,構造最適化問題におけるグローバル最適化の方法を示す。
特定のコスト関数を利用することで、最適化手順が確立された場合と比較して、グローバルをベストに得るか、最悪の場合、優れた結果を得るかのどちらかを得る。
論文 参考訳(メタデータ) (2021-10-28T09:50:29Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Experience-Based Heuristic Search: Robust Motion Planning with Deep
Q-Learning [0.0]
本稿では,Deep Q-Networkの形式でのエクスペリエンスを,探索アルゴリズムの最適ポリシとして統合する方法について述べる。
本手法は、自動運転車分野における強化学習に基づく計画の適用性について、さらなる研究を奨励する可能性がある。
論文 参考訳(メタデータ) (2021-02-05T12:08:11Z) - AI-based Modeling and Data-driven Evaluation for Smart Manufacturing
Processes [56.65379135797867]
本稿では,半導体製造プロセスに関する有用な知見を得るための動的アルゴリズムを提案する。
本稿では,遺伝的アルゴリズムとニューラルネットワークを利用して,知的特徴選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-29T14:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。