論文の概要: Reinforcement learning based local path planning for mobile robot
- arxiv url: http://arxiv.org/abs/2403.12463v1
- Date: Tue, 24 Oct 2023 18:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 07:36:54.662819
- Title: Reinforcement learning based local path planning for mobile robot
- Title(参考訳): 強化学習に基づく移動ロボットの局所経路計画
- Authors: Mehmet Gok, Mehmet Tekerek, Hamza Aydemir,
- Abstract要約: オフラインのシナリオでは、環境マップが一度作成され、このマップ上に固定された経路計画が作成され、ターゲットに到達する。
オンラインのシナリオでは、センサーから得られる知覚データを用いて地図を使わずに、ロボットは所定の目標に向かって動的に移動する。
深層ニューラルネットワークを用いたQ-Learning手法は、前述のモバイルロボットナビゲーションの問題に対する新たな解決策として使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Different methods are used for a mobile robot to go to a specific target location. These methods work in different ways for online and offline scenarios. In the offline scenario, an environment map is created once, and fixed path planning is made on this map to reach the target. Path planning algorithms such as A* and RRT (Rapidly-Exploring Random Tree) are the examples of offline methods. The most obvious situation here is the need to re-plan the path for changing conditions of the loaded map. On the other hand, in the online scenario, the robot moves dynamically to a given target without using a map by using the perceived data coming from the sensors. Approaches such as SFM (Social Force Model) are used in online systems. However, these methods suffer from the requirement of a lot of dynamic sensing data. Thus, it can be said that the need for re-planning and mapping in offline systems and various system design requirements in online systems are the subjects that focus on autonomous mobile robot research. Recently, deep neural network powered Q-Learning methods are used as an emerging solution to the aforementioned problems in mobile robot navigation. In this study, machine learning algorithms with deep Q-Learning (DQN) and Deep DQN architectures, are evaluated for the solution of the problems presented above to realize path planning of an autonomous mobile robot to avoid obstacles.
- Abstract(参考訳): 移動ロボットが特定の目標地点に行くには、異なる方法が用いられる。
これらのメソッドは、オンラインとオフラインのシナリオで異なる方法で動作します。
オフラインのシナリオでは、環境マップが一度作成され、このマップ上に固定された経路計画が作成され、ターゲットに到達する。
A* や RRT (Rapidly-Exploring Random Tree) のような経路計画アルゴリズムはオフライン手法の例である。
ここで最も明白な状況は、ロードされたマップの条件を変更するパスを再計画する必要があることである。
一方,オンラインのシナリオでは,センサから得られる知覚データを用いて地図を使わずに,ロボットを対象物へ動的に移動させる。
SFM(Social Force Model)のようなアプローチは、オンラインシステムで使われている。
しかし、これらの手法は多くの動的センシングデータの要求に悩まされている。
このように、オフラインシステムにおける再計画とマッピングの必要性や、オンラインシステムにおける様々なシステム設計要件が、自律型移動ロボット研究に焦点を絞っていると言えよう。
近年,モバイルロボットナビゲーションにおける問題に対する新たなソリューションとして,ディープニューラルネットワークを用いたQ-Learning手法が採用されている。
本研究では,DQN(Deep Q-Learning)とDQN(Deep DQN)アーキテクチャを用いた機械学習アルゴリズムを,上記の問題の解法として評価し,障害物回避のための自律移動ロボットの経路計画を実現する。
関連論文リスト
- Multi-Robot Informative Path Planning for Efficient Target Mapping using Deep Reinforcement Learning [11.134855513221359]
本稿では,多ボット情報経路計画のための新しい深層強化学習手法を提案する。
我々は、集中的な訓練と分散実行パラダイムを通じて強化学習政策を訓練する。
提案手法は,他の最先端のマルチロボット目標マッピング手法よりも33.75%向上する。
論文 参考訳(メタデータ) (2024-09-25T14:27:37Z) - Neural Potential Field for Obstacle-Aware Local Motion Planning [46.42871544295734]
本稿では,ロボットのポーズ,障害物マップ,ロボットのフットプリントに基づいて,異なる衝突コストを返却するニューラルネットワークモデルを提案する。
私たちのアーキテクチャには、障害物マップとロボットフットプリントを埋め込みに変換するニューラルイメージエンコーダが含まれています。
Husky UGVモバイルロボットの実験は、我々のアプローチがリアルタイムで安全なローカルプランニングを可能にすることを示した。
論文 参考訳(メタデータ) (2023-10-25T05:00:21Z) - Robot path planning using deep reinforcement learning [0.0]
強化学習法は、地図のないナビゲーションタスクに代わる手段を提供する。
障害物回避と目標指向ナビゲーションタスクの両方に深部強化学習エージェントを実装した。
報酬関数の変更によるエージェントの挙動と性能の変化を解析する。
論文 参考訳(メタデータ) (2023-02-17T20:08:59Z) - Systematic Comparison of Path Planning Algorithms using PathBench [55.335463666037086]
パスプランニングはモバイルロボティクスの重要な構成要素である。
学習に基づく経路計画アルゴリズムの開発は、急速な成長を遂げている。
本稿では,パスプランニングアルゴリズムの開発,視覚化,トレーニング,テスト,ベンチマークを行うプラットフォームであるPathBenchについて述べる。
論文 参考訳(メタデータ) (2022-03-07T01:52:57Z) - Pragmatic Implementation of Reinforcement Algorithms For Path Finding On
Raspberry Pi [0.0]
提案システムは,Raspberry Piが制御する4輪駆動非ホロノミックロボットのグリッドマップを容易にするために,コスト効率のよいアプローチである。
Q学習とDeep-Q学習は、静的障害物との衝突を避けながら最適な経路を見つけるために使用される。
また,方向の配列を正確な動きにデコードする新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-07T09:00:14Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Simultaneous Navigation and Construction Benchmarking Environments [73.0706832393065]
モバイル構築のためのインテリジェントなロボット、環境をナビゲートし、幾何学的設計に従ってその構造を変更するプロセスが必要です。
このタスクでは、ロボットのビジョンと学習の大きな課題は、GPSなしでデザインを正確に達成する方法です。
我々は,手工芸政策の性能を,基礎的なローカライゼーションと計画,最先端の深層強化学習手法を用いて評価した。
論文 参考訳(メタデータ) (2021-03-31T00:05:54Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Autonomous Navigation in Dynamic Environments: Deep Learning-Based
Approach [0.0]
本論文は,各スキームの長所と短所を浮き彫りにした深層学習に基づくアプローチを考察する。
畳み込みニューラルネットワーク(CNN)に基づくディープラーニング手法の1つは、ソフトウェア実装によって実現される。
本研究では, レーザースキャナの代わりに単眼カメラを使用するという基礎から, レストラン, 博物館などの屋内アプリケーションに対して, 低コストなアプローチを提案する。
論文 参考訳(メタデータ) (2021-02-03T23:20:20Z) - Deep Reinforcement Learning Based Dynamic Route Planning for Minimizing
Travel Time [8.234463661266169]
歩行者の深い強化学習に基づく経路計画アルゴリズムを設計する。
本稿では,道路渋滞を回避するため,エージェントが深層Qネットワークを通じて戦略を学習する動的調整可能な経路計画法を提案する。
シミュレーションの結果,DARPアルゴリズムは,従来の最短経路計画アルゴリズムと比較して,混雑条件下で52%の時間を節約できることがわかった。
論文 参考訳(メタデータ) (2020-11-03T15:10:09Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。