論文の概要: Learning-based Cooperative Robotic Paper Wrapping: A Unified Control Policy with Residual Force Control
- arxiv url: http://arxiv.org/abs/2511.03181v1
- Date: Wed, 05 Nov 2025 04:55:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.329463
- Title: Learning-based Cooperative Robotic Paper Wrapping: A Unified Control Policy with Residual Force Control
- Title(参考訳): 学習型協調型ロボットペーパーラッピング:残留力制御による統一制御
- Authors: Rewida Ali, Cristian C. Beltran-Hernandez, Weiwei Wan, Kensuke Harada,
- Abstract要約: 本稿では,大規模言語モデルを用いた高レベルタスクプランナと,低レベルのハイブリッド模倣学習と強化学習ポリシを統合した学習ベースフレームワークを提案する。
中心となるのは、人間のデモンストレーションから統一されたポリシーを学ぶサブタスク認識ロボットトランスフォーマー(START)である。
統一型トランスフォーマーベースのポリシーは、特殊なモデルの必要性を減らし、制御された人間の監督を可能にし、変形可能なオブジェクト操作に必要なきめ細かい力制御によって、高レベルの意図を効果的に橋渡しすることを示す。
- 参考スコア(独自算出の注目度): 11.21445976755808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-robot cooperation is essential in environments such as warehouses and retail stores, where workers frequently handle deformable objects like paper, bags, and fabrics. Coordinating robotic actions with human assistance remains difficult due to the unpredictable dynamics of deformable materials and the need for adaptive force control. To explore this challenge, we focus on the task of gift wrapping, which exemplifies a long-horizon manipulation problem involving precise folding, controlled creasing, and secure fixation of paper. Success is achieved when the robot completes the sequence to produce a neatly wrapped package with clean folds and no tears. We propose a learning-based framework that integrates a high-level task planner powered by a large language model (LLM) with a low-level hybrid imitation learning (IL) and reinforcement learning (RL) policy. At its core is a Sub-task Aware Robotic Transformer (START) that learns a unified policy from human demonstrations. The key novelty lies in capturing long-range temporal dependencies across the full wrapping sequence within a single model. Unlike vanilla Action Chunking with Transformer (ACT), typically applied to short tasks, our method introduces sub-task IDs that provide explicit temporal grounding. This enables robust performance across the entire wrapping process and supports flexible execution, as the policy learns sub-goals rather than merely replicating motion sequences. Our framework achieves a 97% success rate on real-world wrapping tasks. We show that the unified transformer-based policy reduces the need for specialized models, allows controlled human supervision, and effectively bridges high-level intent with the fine-grained force control required for deformable object manipulation.
- Abstract(参考訳): 人間とロボットの協力は、倉庫や小売店のような環境において不可欠であり、労働者は紙、バッグ、布地などの変形可能な物体をよく扱う。
変形可能な材料の予測不可能なダイナミクスと適応力制御の必要性のため、人間の助けによるロボット動作の調整は依然として困難である。
この課題を探求するため, 紙の折り畳み, 制御された増減, 固定の確保を含む長期操作問題を実証するギフト包装の課題に焦点をあてた。
ロボットがシークエンスを完了して、きれいな折りたたみと涙のないきちんと包まれたパッケージを作ると、成功する。
本稿では,大規模言語モデル(LLM)を利用した高レベルタスクプランナと,低レベルハイブリッド模倣学習(IL)と強化学習(RL)ポリシを統合した学習ベースフレームワークを提案する。
中心となるのは、人間のデモンストレーションから統一されたポリシーを学ぶサブタスク認識ロボットトランスフォーマー(START)である。
重要な新規性は、単一のモデル内で完全なラッピングシーケンス全体にわたって、長距離の時間的依存関係をキャプチャすることにある。
通常は短いタスクに適用されるvanilla Action Chunking with Transformer (ACT)とは異なり,本手法では,時間的接地を明示するサブタスクIDを導入している。
これにより、ラッピングプロセス全体にわたって堅牢なパフォーマンスを実現し、フレキシブルな実行をサポートする。
我々のフレームワークは実世界のラッピングタスクで97%の成功率を達成した。
統一型トランスフォーマーベースのポリシーは、特殊なモデルの必要性を減らし、制御された人間の監督を可能にし、変形可能なオブジェクト操作に必要なきめ細かい力制御によって、高レベルの意図を効果的に橋渡しすることを示す。
関連論文リスト
- Ctrl-World: A Controllable Generative World Model for Robot Manipulation [53.71061464925014]
汎用ロボットポリシーは、幅広い操作スキルを実行することができる。
未知の物体や命令で 彼らの能力を評価し 改善することは 重要な課題です
世界モデルは、イマジネーション空間内でポリシーの展開を可能にすることで、有望でスケーラブルな代替手段を提供する。
論文 参考訳(メタデータ) (2025-10-11T09:13:10Z) - ImaginationPolicy: Towards Generalizable, Precise and Reliable End-to-End Policy for Robotic Manipulation [46.06124092071133]
ロボット操作のための新しい動き指向キーポイント(CoMOK)の定式化を提案する。
私たちの定式化は、エンドツーエンドでトレーニング可能なニューラルポリシーのアクション表現として使用されます。
論文 参考訳(メタデータ) (2025-09-25T07:29:07Z) - CAIMAN: Causal Action Influence Detection for Sample-efficient Loco-manipulation [17.94272840532448]
我々は,ロボットが環境内の他のエンティティを制御できるようにする強化学習フレームワークであるCAIMANを提案する。
シミュレーションにおけるCAIMANの優れたサンプル効率と多様なシナリオへの適応性を実証的に実証した。
論文 参考訳(メタデータ) (2025-02-02T16:16:53Z) - Robotic Control via Embodied Chain-of-Thought Reasoning [86.6680905262442]
学習したロボット制御ポリシーの鍵となる制限は、トレーニングデータの外部で一般化できないことである。
視覚言語行動モデル(VLA)に関する最近の研究は、大規模なインターネット事前学習型視覚言語モデルを使用することで、その堅牢性と一般化能力を大幅に向上させることができることを示した。
ロボットの動作を予測する前に、VLAに対して、計画、サブタスク、動作、視覚的接地機能について複数の推論を行うために、VLAに対してEmbodied Chain-of-Thought Reasoning (ECoT)を導入する。
論文 参考訳(メタデータ) (2024-07-11T17:31:01Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments [18.348489257164356]
本稿では,オブジェクト指向生成モデル(OCGM)を多目的ゴール識別に活用する,効率的なスキル獲得システムを提案する。
OCGMは、新しいシーンでワンショットターゲットオブジェクトの識別と再識別を可能にし、MPは障害物を避けながらロボットを対象オブジェクトに誘導することができる。
論文 参考訳(メタデータ) (2023-03-06T18:49:59Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Robot Learning of Mobile Manipulation with Reachability Behavior Priors [38.49783454634775]
モバイルマニピュレーション(MM)システムは、非構造化現実環境におけるパーソナルアシスタントの役割を引き継ぐ上で理想的な候補である。
その他の課題として、MMは移動性と操作性の両方を必要とするタスクを実行するために、ロボットの実施形態を効果的に調整する必要がある。
本研究では,アクタ批判的RL手法におけるロボットの到達可能性の先行性の統合について検討した。
論文 参考訳(メタデータ) (2022-03-08T12:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。