論文の概要: Learning to Plan & Schedule with Reinforcement-Learned Bimanual Robot Skills
- arxiv url: http://arxiv.org/abs/2510.25634v1
- Date: Wed, 29 Oct 2025 15:39:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.795198
- Title: Learning to Plan & Schedule with Reinforcement-Learned Bimanual Robot Skills
- Title(参考訳): 強化学習ロボットによる計画・スケジュールの学習
- Authors: Weikang Wan, Fabio Ramos, Xuning Yang, Caelan Garrett,
- Abstract要約: 我々は、この課題を統合されたスキル計画とスケジューリングの問題とみなす階層的なフレームワークを導入します。
提案手法は,GPU加速シミュレーションにおいて強化学習(Reinforcement Learning, RL)を用いて訓練された,単腕および二足歩行のプリミティブスキルのライブラリ上に構築されている。
本手法は, エンド・ツー・エンドのRL手法よりも複雑で接触性の高いタスクにおいて, 高い成功率を達成できることを実証する。
- 参考スコア(独自算出の注目度): 5.745006056037742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-horizon contact-rich bimanual manipulation presents a significant challenge, requiring complex coordination involving a mixture of parallel execution and sequential collaboration between arms. In this paper, we introduce a hierarchical framework that frames this challenge as an integrated skill planning & scheduling problem, going beyond purely sequential decision-making to support simultaneous skill invocation. Our approach is built upon a library of single-arm and bimanual primitive skills, each trained using Reinforcement Learning (RL) in GPU-accelerated simulation. We then train a Transformer-based planner on a dataset of skill compositions to act as a high-level scheduler, simultaneously predicting the discrete schedule of skills as well as their continuous parameters. We demonstrate that our method achieves higher success rates on complex, contact-rich tasks than end-to-end RL approaches and produces more efficient, coordinated behaviors than traditional sequential-only planners.
- Abstract(参考訳): ロングホライゾン接触に富んだバイマニュアル操作は、並列実行と腕の連続的な協調の混合を含む複雑な協調を必要とする、重大な課題を呈する。
本稿では、この課題を、純粋にシーケンシャルな意思決定を超えて、同時スキル実行をサポートするような、統合されたスキル計画とスケジューリングの問題として、階層的な枠組みを導入する。
提案手法は,GPU加速シミュレーションにおいて強化学習(Reinforcement Learning, RL)を用いて訓練された,単腕および二足歩行のプリミティブスキルのライブラリ上に構築されている。
次に、トランスフォーマーベースのプランナーをスキルコンポジションのデータセットでトレーニングし、高いレベルのスケジューラとして機能し、スキルの個別スケジュールと継続的なパラメータを同時に予測します。
提案手法は,従来の逐次計画手法よりも複雑で接触に富むタスクをエンド・ツー・エンドのRLアプローチよりも高い成功率で実現し,より効率的で協調的な動作を実現できることを示す。
関連論文リスト
- ParaCook: On Time-Efficient Planning for Multi-Agent Systems [62.471032881396496]
大規模言語モデル(LLM)は、長期の現実世界のタスクを計画するための強力な推論能力を示す。
時間効率の協調計画のためのベンチマークであるParaCookを紹介する。
論文 参考訳(メタデータ) (2025-10-13T16:47:07Z) - PARL-MT: Learning to Call Functions in Multi-Turn Conversation with Progress Awareness [57.020401590532686]
マルチターン関数呼び出しのためのLLMトレーニングに進捗認識を明示的に組み込むフレームワークであるPARL-MTを導入する。
PARL-MTは既存の手法よりも優れており、堅牢で効率的なマルチターン関数呼び出しの実現における進捗認識の有効性を強調している。
論文 参考訳(メタデータ) (2025-09-27T09:32:27Z) - Scalable Hierarchical Reinforcement Learning for Hyper Scale Multi-Robot Task Planning [17.989467671223043]
RMFSにおける超大規模MRTPのための効率的な多段階HRLベースのマルチロボットタスクプランナを構築した。
最適性を確保するため、プランナーは集中型アーキテクチャで設計されているが、スケールアップと一般化の課題ももたらしている。
我々のプランナーは、最大200台のロボットと1000台の検索ラックでRMFSの超大規模MRTPインスタンスにスケールアップできる。
論文 参考訳(メタデータ) (2024-12-27T09:07:11Z) - Efficient Learning of High Level Plans from Play [57.29562823883257]
本稿では,移動計画と深いRLを橋渡しするロボット学習のフレームワークであるELF-Pについて紹介する。
ELF-Pは、複数の現実的な操作タスクよりも、関連するベースラインよりもはるかに優れたサンプル効率を有することを示す。
論文 参考訳(メタデータ) (2023-03-16T20:09:47Z) - A Memetic Algorithm with Reinforcement Learning for Sociotechnical
Production Scheduling [0.0]
本稿では、フレキシブルジョブショップスケジューリング問題(DRC-FJSSP)に深層強化学習(DRL)を適用したメメティックアルゴリズムを提案する。
産業における研究プロジェクトから、フレキシブルマシン、フレキシブルなヒューマンワーカー、作業能力、セットアップと処理操作、材料到着時間、材料製造の請求書の並列タスク、シーケンス依存のセットアップ時間、人間と機械のコラボレーションにおける(一部)自動化タスクを検討する必要性を認識します。
論文 参考訳(メタデータ) (2022-12-21T11:24:32Z) - Learning Temporally Extended Skills in Continuous Domains as Symbolic
Actions for Planning [2.642698101441705]
長期計画と継続的な制御能力の両方を必要とする問題は、既存の強化学習エージェントに重大な課題をもたらす。
本稿では,環境の計画状態の象徴的抽象化において,継続的制御のための時間的拡張スキルとフォワードモデルとをリンクする新しい階層型強化学習エージェントを提案する。
論文 参考訳(メタデータ) (2022-07-11T17:13:10Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z) - Geometric Deep Reinforcement Learning for Dynamic DAG Scheduling [8.14784681248878]
本稿では,現実的なスケジューリング問題を解決するための強化学習手法を提案する。
高性能コンピューティングコミュニティにおいて一般的に実行されるアルゴリズムであるColesky Factorizationに適用する。
我々のアルゴリズムは,アクター・クリティカル・アルゴリズム (A2C) と組み合わせてグラフニューラルネットワークを用いて,問題の適応表現をオンザフライで構築する。
論文 参考訳(メタデータ) (2020-11-09T10:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。