論文の概要: RoboPARA: Dual-Arm Robot Planning with Parallel Allocation and Recomposition Across Tasks
- arxiv url: http://arxiv.org/abs/2506.06683v1
- Date: Sat, 07 Jun 2025 06:46:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.428963
- Title: RoboPARA: Dual-Arm Robot Planning with Parallel Allocation and Recomposition Across Tasks
- Title(参考訳): RoboPARA: タスク間の並列配置と再分割によるデュアルアームロボット計画
- Authors: Shiying Duan, Pei Ren, Nanxiang Jiang, Zhengping Che, Jian Tang, Yifan Sun, Zhaoxin Fan, Wenjun Wu,
- Abstract要約: デュアルアームタスク並列化計画のための新しい大規模言語モデル(LLM)駆動フレームワークを提案する。
RoboPARAは、依存グラフベースのプランニング候補生成とグラフリトラバーサルベースのデュアルアーム並列プランニングという2段階のプロセスを採用している。
X-DAPTデータセットは、様々なシナリオと難易度でデュアルアームタスク並列性を評価するために特別に設計された最初のデータセットである。
- 参考スコア(独自算出の注目度): 22.2075114201037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dual-arm robots play a crucial role in improving efficiency and flexibility in complex multitasking scenarios. While existing methods have achieved promising results in task planning, they often fail to fully optimize task parallelism, limiting the potential of dual-arm collaboration. To address this issue, we propose RoboPARA, a novel large language model (LLM)-driven framework for dual-arm task parallelism planning. RoboPARA employs a two-stage process: (1) Dependency Graph-based Planning Candidates Generation, which constructs directed acyclic graphs (DAGs) to model task dependencies and eliminate redundancy, and (2) Graph Re-Traversal-based Dual-Arm Parallel Planning, which optimizes DAG traversal to maximize parallelism while maintaining task coherence. In addition, we introduce the Cross-Scenario Dual-Arm Parallel Task dataset (X-DAPT dataset), the first dataset specifically designed to evaluate dual-arm task parallelism across diverse scenarios and difficulty levels. Extensive experiments on the X-DAPT dataset demonstrate that RoboPARA significantly outperforms existing methods, achieving higher efficiency and reliability, particularly in complex task combinations. The code and dataset will be released upon acceptance.
- Abstract(参考訳): デュアルアームロボットは複雑なマルチタスクシナリオにおいて効率と柔軟性を向上させる上で重要な役割を果たす。
既存の手法はタスク計画において有望な結果を得たが、しばしばタスク並列性を完全に最適化できず、デュアルアームコラボレーションの可能性を制限する。
この問題に対処するため、両腕タスク並列化計画のための新しい大規模言語モデル(LLM)駆動フレームワークであるRoboPARAを提案する。
依存グラフに基づく計画候補生成は,タスク依存をモデル化し,冗長性を排除するための非循環グラフ(DAG)の構築と,タスクコヒーレンスを維持しながらDAGトラバーサルを最大限に最適化するグラフ再トラバーサルベースのデュアルアーム並列計画(Dual-Arm Parallel Planning)である。
さらに,多種多様なシナリオと難易度にまたがるデュアルアームタスク並列性を評価するために設計された最初のデータセットであるCross-Scenario Dual-Arm Parallel Task dataset (X-DAPT dataset)を紹介した。
X-DAPTデータセットの大規模な実験により、RoboPARAは既存の手法を著しく上回り、特に複雑なタスクの組み合わせにおいて高い効率と信頼性を達成することが示された。
コードとデータセットは受理時にリリースされる。
関連論文リスト
- RoboCerebra: A Large-scale Benchmark for Long-horizon Robotic Manipulation Evaluation [80.20970723577818]
長距離ロボット操作における高レベル推論評価のためのベンチマークであるRoboCerebraを紹介する。
データセットはトップダウンパイプラインを通じて構築され、GPTはタスク命令を生成し、それらをサブタスクシーケンスに分解する。
以前のベンチマークと比較すると、RoboCerebraはアクションシーケンスが大幅に長く、アノテーションがより密度が高い。
論文 参考訳(メタデータ) (2025-06-07T06:15:49Z) - Data-Agnostic Robotic Long-Horizon Manipulation with Vision-Language-Guided Closed-Loop Feedback [12.600525101342026]
本稿では,言語条件のロングホライズンロボット操作のためのデータに依存しないフレームワークであるDAHLIAを紹介する。
LLMは、リアルタイムタスク計画と実行のための大きな言語モデルである。
本フレームワークは,多種多様な長期タスクにおける最先端性能を実証し,シミュレーションおよび実世界のシナリオにおいて強力な一般化を実現する。
論文 参考訳(メタデータ) (2025-03-27T20:32:58Z) - Parallelized Planning-Acting for Efficient LLM-based Multi-Agent Systems [31.894636711684523]
マルチエージェントシステムのための並列化計画実行フレームワークを提案する。
提案するフレームワークは、同時計画と動作を可能にする割り込み可能な実行を備えたデュアルスレッドアーキテクチャを備えている。
論文 参考訳(メタデータ) (2025-03-05T13:53:10Z) - A Temporal Planning Framework for Multi-Agent Systems via LLM-Aided Knowledge Base Management [5.548477348501636]
本稿では,大規模言語モデル(LLM)とPrologベースの知識管理とマルチロボットタスクの計画を統合したPLANTORという新しいフレームワークを提案する。
その結果,LLMは人間からのフィードバックの少ない正確な知識ベースを生成でき,Prologは形式的正当性と説明可能性を保証することがわかった。
このアプローチは、柔軟でスケーラブルで人間に理解可能な計画を必要とする高度なロボティクスタスクのためのLLM統合の可能性を強調している。
論文 参考訳(メタデータ) (2025-02-26T13:51:28Z) - Plan-over-Graph: Towards Parallelable LLM Agent Schedule [53.834646147919436]
大規模言語モデル(LLM)はタスク計画の推論において例外的な能力を示した。
本稿では,まず実生活のテキストタスクを実行可能なサブタスクに分解し,抽象的なタスクグラフを構築する,新しいパラダイムであるプランオーバーグラフを提案する。
モデルはこのタスクグラフを入力として理解し、並列実行計画を生成する。
論文 参考訳(メタデータ) (2025-02-20T13:47:51Z) - COHERENT: Collaboration of Heterogeneous Multi-Robot System with Large Language Models [49.24666980374751]
COHERENTは、異種マルチロボットシステムの協調のための新しいLCMベースのタスク計画フレームワークである。
提案-実行-フィードバック-調整機構は,個々のロボットに対して動作を分解・割り当てするように設計されている。
実験の結果,我々の研究は,成功率と実行効率の面で,従来の手法をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-23T15:53:41Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - DAG-Plan: Generating Directed Acyclic Dependency Graphs for Dual-Arm Cooperative Planning [37.38735065914983]
DAG-Planは、デュアルアームロボット用に設計された構造化タスク計画フレームワークである。
複雑なタスクを、有向非巡回グラフ内のノードとして表される実行可能なサブタスクに分解する。
リアルタイム環境観測に基づいて、これらのサブタスクを適切なアームに動的に割り当てる。
論文 参考訳(メタデータ) (2024-06-14T11:58:51Z) - EmbodiedGPT: Vision-Language Pre-Training via Embodied Chain of Thought [95.37585041654535]
Embodied AIは、ロボットが物理的な環境で長時間のタスクを遂行するためのアクションシーケンスを計画し、実行することができる。
本稿では,EmbodiedGPTを紹介する。EmbodiedGPTは,エンボディドAIのためのエンドツーエンドのマルチモーダル基盤モデルである。
実験は、実施計画、実施制御、視覚的キャプション、視覚的質問応答など、実施されたタスクに対するEmbodiedGPTの有効性を示す。
論文 参考訳(メタデータ) (2023-05-24T11:04:30Z) - Toward Efficient Task Planning for Dual-Arm Tabletop Object
Rearrangement [12.928188950810043]
非単調な再配置タスクでは、複雑なオブジェクトオブジェクトの依存関係が存在し、インスタンスを解決するために複数のオブジェクトを移動する必要があります。
本研究では,2つのアーム間で適切に分配可能なピック・n・プレース・シーケンスをスケジューリングするための効率的なタスク計画アルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-07-17T05:11:14Z) - Dynamic Multi-Robot Task Allocation under Uncertainty and Temporal
Constraints [52.58352707495122]
本稿では,不確実性およびマルチエージェント協調の下での逐次意思決定における重要な計算課題を分離するマルチロボット割当アルゴリズムを提案する。
都市におけるマルチアームコンベヤベルトピック・アンド・プレイスとマルチドローン配送ディスパッチの2つの異なる領域における広範囲なシミュレーション結果について検証を行った。
論文 参考訳(メタデータ) (2020-05-27T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。