論文の概要: An advantage actor-critic algorithm for robotic motion planning in dense
and dynamic scenarios
- arxiv url: http://arxiv.org/abs/2102.03138v1
- Date: Fri, 5 Feb 2021 12:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 12:59:01.768352
- Title: An advantage actor-critic algorithm for robotic motion planning in dense
and dynamic scenarios
- Title(参考訳): 高密度・動的シナリオにおけるロボット運動計画のためのアドバンテージアクタクリティカルアルゴリズム
- Authors: Chengmin Zhou, Bingding Huang, Pasi Fr\"anti
- Abstract要約: 本稿では,既存のアクター批判アルゴリズムを改良し,複雑な動作計画に適合する。
ロボットが目標を達成するまでの処理時間を短縮し、動き計画においてより高い成功率を達成する。
- 参考スコア(独自算出の注目度): 0.8594140167290099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent robots provide a new insight into efficiency improvement in
industrial and service scenarios to replace human labor. However, these
scenarios include dense and dynamic obstacles that make motion planning of
robots challenging. Traditional algorithms like A* can plan collision-free
trajectories in static environment, but their performance degrades and
computational cost increases steeply in dense and dynamic scenarios.
Optimal-value reinforcement learning algorithms (RL) can address these problems
but suffer slow speed and instability in network convergence. Network of policy
gradient RL converge fast in Atari games where action is discrete and finite,
but few works have been done to address problems where continuous actions and
large action space are required. In this paper, we modify existing advantage
actor-critic algorithm and suit it to complex motion planning, therefore
optimal speeds and directions of robot are generated. Experimental results
demonstrate that our algorithm converges faster and stable than optimal-value
RL. It achieves higher success rate in motion planning with lesser processing
time for robot to reach its goal.
- Abstract(参考訳): インテリジェントロボットは、人件費を置き換えるための産業およびサービスシナリオの効率改善に関する新しい洞察を提供します。
しかし、これらのシナリオには、ロボットの運動計画を困難にする高密度でダイナミックな障害物が含まれます。
A*のような従来のアルゴリズムは、静的な環境では衝突のない軌道を計画できるが、その性能は低下し、計算コストは密度と動的シナリオで急上昇する。
最適値強化学習アルゴリズム(RL)はこれらの問題に対処できるが、ネットワーク収束の速度と不安定さに悩まされる。
ポリシー勾配 RL のネットワークは、アクションが離散的で有限であるアタリゲームにおいて急速に収束するが、連続的なアクションと大きなアクション空間を必要とする問題に対処する作業はほとんど行われていない。
本稿では,既存のアドバンテージアクタクリティカルアルゴリズムを変更し,複雑な動作計画に適応させるため,ロボットの最適速度と方向を生成する。
実験の結果,提案アルゴリズムは最適値RLよりも高速で安定であることがわかった。
ロボットが目標に達するまでの処理時間を短くすることで、モーションプランニングの成功率を高める。
関連論文リスト
- Robotic warehousing operations: a learn-then-optimize approach to large-scale neighborhood search [84.39855372157616]
本稿では,ワークステーションの注文処理,アイテムポッドの割り当て,ワークステーションでの注文処理のスケジュールを最適化することで,ウェアハウジングにおけるロボット部品対ピッカー操作を支援する。
そこで我々は, 大規模近傍探索を用いて, サブプロブレム生成に対する学習を最適化する手法を提案する。
Amazon Roboticsと共同で、我々のモデルとアルゴリズムは、最先端のアプローチよりも、実用的な問題に対するより強力なソリューションを生み出していることを示す。
論文 参考訳(メタデータ) (2024-08-29T20:22:22Z) - A Meta-Engine Framework for Interleaved Task and Motion Planning using Topological Refinements [51.54559117314768]
タスク・アンド・モーション・プランニング(タスク・アンド・モーション・プランニング、TAMP)は、自動化された計画問題の解決策を見つけるための問題である。
本稿では,TAMP問題のモデル化とベンチマークを行うための,汎用的でオープンソースのフレームワークを提案する。
移動エージェントと複数のタスク状態依存障害を含むTAMP問題を解決する革新的なメタ技術を導入する。
論文 参考訳(メタデータ) (2024-08-11T14:57:57Z) - Exploring Robot Trajectory Planning -- A Comparative Analysis of Algorithms And Software Implementations in Dynamic Environments [0.0]
軌道計画はModern & Advanced Roboticsにおいて重要な用語である。
これは、ロボットが時間が経つにつれて、スムーズで実現可能な経路を生成する方法です。
軌道計画は自動車産業ロボット、マニピュレータ、移動ロボットで広く使われている。
論文 参考訳(メタデータ) (2024-07-18T09:30:27Z) - Hybrid of representation learning and reinforcement learning for dynamic
and complex robotic motion planning [3.794762046318001]
本稿では,ロボット動作計画のためのハイブリッドアルゴリズムを提案する。長期記憶(LSTM)プーリングとスキップ接続により,注意に基づく離散ソフトアクタ評論家(LSA-DSAC)を実現する。
実験の結果, LSA-DSACはトレーニングおよびほとんどの評価において, 最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2023-09-07T15:00:49Z) - Fast Kinodynamic Planning on the Constraint Manifold with Deep Neural
Networks [29.239926645660823]
本稿では,制約多様体の概念を利用した新しい学習計画フレームワークを提案する。
我々の手法は任意の制約を満たす計画を生成し、ニューラルネットワークの推論時間という短い一定時間でそれらを計算する。
我々は,2つのシミュレートされたタスクと,ロボット・エアホッケーにおける打撃動作を実行するために,クカ・LBRIiwa 14ロボットアームを用いた実世界のシナリオに対して,我々のアプローチを検証した。
論文 参考訳(メタデータ) (2023-01-11T06:54:11Z) - Learning-based Motion Planning in Dynamic Environments Using GNNs and
Temporal Encoding [15.58317292680615]
組込みとエッジ優先化ポリシの両方を学習するために,データアグリゲーションを用いた時間符号化と模倣学習を用いたGNNベースのアプローチを提案する。
実験により, 提案手法は, 最先端の完全な動的計画アルゴリズムよりも, オンラインプランニングを著しく高速化できることが示された。
論文 参考訳(メタデータ) (2022-10-16T01:27:16Z) - Obstacle Avoidance for Robotic Manipulator in Joint Space via Improved
Proximal Policy Optimization [6.067589886362815]
本稿では,6-DoFマニピュレータのタスク空間から関節空間にマップするために,改良されたPPOアルゴリズムを用いて深層ニューラルネットワークを訓練する。
実ロボットでそのようなタスクを訓練するのは時間を要するので、モデルを訓練するためのシミュレーション環境を開発する。
実験結果から,ロボットは非構造環境下で1つの目標をトラッキングしたり,複数の目標に到達することができた。
論文 参考訳(メタデータ) (2022-10-03T10:21:57Z) - Simultaneous Contact-Rich Grasping and Locomotion via Distributed
Optimization Enabling Free-Climbing for Multi-Limbed Robots [60.06216976204385]
移動, 把握, 接触問題を同時に解くための効率的な運動計画フレームワークを提案する。
ハードウェア実験において提案手法を実証し, より短い計画時間で, 傾斜角45degで自由クライミングを含む様々な動作を実現できることを示す。
論文 参考訳(メタデータ) (2022-07-04T13:52:10Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。