論文の概要: Transformer-Enhanced Motion Planner: Attention-Guided Sampling for State-Specific Decision Making
- arxiv url: http://arxiv.org/abs/2404.19403v1
- Date: Tue, 30 Apr 2024 09:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 14:44:46.014489
- Title: Transformer-Enhanced Motion Planner: Attention-Guided Sampling for State-Specific Decision Making
- Title(参考訳): 変圧器強化型モーションプランナ:状態決定のための注意誘導サンプリング
- Authors: Lei Zhuang, Jingdong Zhao, Yuntao Li, Zichun Xu, Liangliang Zhao, Hong Liu,
- Abstract要約: Transformer-Enhanced Motion Planner (TEMP)は、新しいディープラーニングベースのモーションプランニングフレームワークである。
TEMPによる環境情報セマンティック(EISE)と運動計画変換器(MPT)の相乗効果
- 参考スコア(独自算出の注目度): 6.867637277944729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sampling-based motion planning (SBMP) algorithms are renowned for their robust global search capabilities. However, the inherent randomness in their sampling mechanisms often result in inconsistent path quality and limited search efficiency. In response to these challenges, this work proposes a novel deep learning-based motion planning framework, named Transformer-Enhanced Motion Planner (TEMP), which synergizes an Environmental Information Semantic Encoder (EISE) with a Motion Planning Transformer (MPT). EISE converts environmental data into semantic environmental information (SEI), providing MPT with an enriched environmental comprehension. MPT leverages an attention mechanism to dynamically recalibrate its focus on SEI, task objectives, and historical planning data, refining the sampling node generation. To demonstrate the capabilities of TEMP, we train our model using a dataset comprised of planning results produced by the RRT*. EISE and MPT are collaboratively trained, enabling EISE to autonomously learn and extract patterns from environmental data, thereby forming semantic representations that MPT could more effectively interpret and utilize for motion planning. Subsequently, we conducted a systematic evaluation of TEMP's efficacy across diverse task dimensions, which demonstrates that TEMP achieves exceptional performance metrics and a heightened degree of generalizability compared to state-of-the-art SBMPs.
- Abstract(参考訳): サンプリングベースのモーションプランニング(SBMP)アルゴリズムは、その堅牢なグローバル検索能力で有名である。
しかし、サンプリング機構に固有のランダム性は、しばしば不整合パスの品質と探索効率の制限をもたらす。
これらの課題に応えて、この研究は、環境情報セマンティックエンコーダ(EISE)と運動計画トランスフォーマー(MPT)を相乗化する、Transformer-Enhanced Motion Planner(TEMP)という、新しいディープラーニングベースのモーションプランニングフレームワークを提案する。
EISEは環境データをセマンティック環境情報(SEI)に変換し、MPTに豊かな環境理解を提供する。
MPTは、注意機構を利用して、SEI、タスク目標、過去の計画データを動的に再検討し、サンプリングノード生成を精査する。
TEMPの能力を示すために、RT*によって生成された計画結果からなるデータセットを用いてモデルを訓練する。
EISEとMPTは協調的に訓練され、EISEは環境データからパターンを自律的に学習し、抽出することができる。
続いて,TEMPの有効性を多種多様なタスク次元にわたって体系的に評価し,TEMPは,最先端のSBMPと比較して,例外的な性能指標と高い一般化度を達成できることを実証した。
関連論文リスト
- DyPNIPP: Predicting Environment Dynamics for RL-based Robust Informative Path Planning [13.462524685985818]
DyPNIPPは、時間的環境を効果的に横断するために設計された堅牢なRLベースのIPPフレームワークである。
野火環境での実験では、DyPNIPPは既存のRLベースのIPPアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T17:07:26Z) - R-AIF: Solving Sparse-Reward Robotic Tasks from Pixels with Active Inference and World Models [50.19174067263255]
我々は、エージェントがスパース・リワード、継続的なアクション、ゴールベースのロボット制御POMDP環境においてエクササイズするのを助けるために、事前の選好学習手法と自己修正スケジュールを導入する。
我々のエージェントは、累積報酬、相対安定性、成功率の観点から、最先端モデルよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-21T18:32:44Z) - A Meta-Engine Framework for Interleaved Task and Motion Planning using Topological Refinements [51.54559117314768]
タスク・アンド・モーション・プランニング(タスク・アンド・モーション・プランニング、TAMP)は、自動化された計画問題の解決策を見つけるための問題である。
本稿では,TAMP問題のモデル化とベンチマークを行うための,汎用的でオープンソースのフレームワークを提案する。
移動エージェントと複数のタスク状態依存障害を含むTAMP問題を解決する革新的なメタ技術を導入する。
論文 参考訳(メタデータ) (2024-08-11T14:57:57Z) - A Survey of Optimization-based Task and Motion Planning: From Classical To Learning Approaches [15.136760934936381]
タスク・アンド・モーション・プランニング(TAMP)は、高レベルなタスク計画と低レベルなモーション・プランニングを統合し、ロボットに自律性を持たせ、長期にわたる動的タスクを推論する。
この調査では、最適化に基づくTAMPの包括的なレビュー、(i)計画ドメイン表現、(ii)AI計画と軌道最適化(TO)を含むコンポーネントの個別ソリューション戦略、(iii)論理ベースのタスク計画とモデルベースのTOの動的相互作用について紹介する。
論文 参考訳(メタデータ) (2024-04-03T15:38:36Z) - Model-free Motion Planning of Autonomous Agents for Complex Tasks in
Partially Observable Environments [3.7660066212240753]
部分的に知られている環境での自律エージェントの動作計画は難しい問題である。
本稿では,モデルのない強化学習手法を提案する。
提案手法は, 環境, 行動, 観測の不確実性に効果的に対処できることを示す。
論文 参考訳(メタデータ) (2023-04-30T19:57:39Z) - Sequential Information Design: Markov Persuasion Process and Its
Efficient Reinforcement Learning [156.5667417159582]
本稿では,逐次情報設計の新たなモデル,すなわちマルコフ説得過程(MPP)を提案する。
MPPのプランニングは、ミオピックレシーバーに同時に説得されるシグナルポリシーを見つけ、送信者の最適な長期累積ユーティリティを誘導する、というユニークな課題に直面している。
我々は,楽観主義と悲観主義の両原理の新たな組み合わせを特徴とする,実証可能な効率のよい非回帰学習アルゴリズム,Optimism-Pessimism Principle for Persuasion Process (OP4) を設計する。
論文 参考訳(メタデータ) (2022-02-22T05:41:43Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Reinforcement Learning for Minimizing Age of Information in Real-time
Internet of Things Systems with Realistic Physical Dynamics [158.67956699843168]
本稿では,インターネット・オブ・モノ(IoT)デバイスにおける情報量(AoI)と総エネルギー消費の重み付けを最小化する問題について検討する。
サンプリングポリシを最適化するために,分散強化学習手法を提案する。
PM 2.5公害の実データを用いたシミュレーションでは、提案アルゴリズムがAoIの合計を最大17.8%および33.9%削減できることが示された。
論文 参考訳(メタデータ) (2021-04-04T03:17:26Z) - Modular Deep Reinforcement Learning for Continuous Motion Planning with
Temporal Logic [59.94347858883343]
本稿では,マルコフ決定過程(MDP)をモデルとした自律動的システムの運動計画について検討する。
LDGBA と MDP の間に組込み製品 MDP (EP-MDP) を設計することである。
モデルフリー強化学習(RL)のためのLDGBAベースの報酬形成と割引スキームは、EP-MDP状態にのみ依存する。
論文 参考訳(メタデータ) (2021-02-24T01:11:25Z) - Adaptive Informative Path Planning with Multimodal Sensing [36.16721115973077]
AIPPMS(マルチモーダルセンシング用MS)
AIPPMSを部分的に観測可能なマルコフ決定プロセス(POMDP)として、オンラインプランニングで解決する。
シミュレーションされた検索・救助シナリオと,従来のRockSample問題への挑戦的拡張の2つの領域について,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-03-21T20:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。