論文の概要: Scalable Dexterous Robot Learning with AR-based Remote Human-Robot Interactions
- arxiv url: http://arxiv.org/abs/2602.07341v1
- Date: Sat, 07 Feb 2026 03:47:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.57608
- Title: Scalable Dexterous Robot Learning with AR-based Remote Human-Robot Interactions
- Title(参考訳): ARを用いた遠隔ロボットインタラクションによるスケーラブルなデクスタースロボット学習
- Authors: Yicheng Yang, Ruijiao Li, Lifeng Wang, Shuai Zheng, Shunzheng Ma, Keyu Zhang, Tuoyu Sun, Chenyun Dai, Jie Ding, Zhuo Zou,
- Abstract要約: 本稿では,手軽なロボットアームハンドシステムにおける操作のためのスケーラブルなロボット学習に焦点を当てた。
本稿では,汎用的な操作タスク問題に対処するための統一的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.111267700755986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper focuses on the scalable robot learning for manipulation in the dexterous robot arm-hand systems, where the remote human-robot interactions via augmented reality (AR) are established to collect the expert demonstration data for improving efficiency. In such a system, we present a unified framework to address the general manipulation task problem. Specifically, the proposed method consists of two phases: i) In the first phase for pretraining, the policy is created in a behavior cloning (BC) manner, through leveraging the learning data from our AR-based remote human-robot interaction system; ii) In the second phase, a contrastive learning empowered reinforcement learning (RL) method is developed to obtain more efficient and robust policy than the BC, and thus a projection head is designed to accelerate the learning progress. An event-driven augmented reward is adopted for enhancing the safety. To validate the proposed method, both the physics simulations via PyBullet and real-world experiments are carried out. The results demonstrate that compared to the classic proximal policy optimization and soft actor-critic policies, our method not only significantly speeds up the inference, but also achieves much better performance in terms of the success rate for fulfilling the manipulation tasks. By conducting the ablation study, it is confirmed that the proposed RL with contrastive learning overcomes policy collapse. Supplementary demonstrations are available at https://cyberyyc.github.io/.
- Abstract(参考訳): 本稿では,拡張現実(AR)を介して遠隔操作を行うロボットアームハンドシステムの操作性向上を目的とした,スケーラブルなロボット学習について論じる。
このようなシステムでは、汎用的な操作タスク問題に対処するための統一的なフレームワークを提案する。
具体的には,提案手法は2つのフェーズから構成される。
一 事前訓練の第一段階において、我々のARに基づく遠隔人間ロボットインタラクションシステムからの学習データを活用することにより、行動クローニング(BC)方式で政策を作成すること。
二 コントラッシブラーニング強化学習(RL)法は、BCよりも効率的で堅牢な政策を得るために開発され、したがって、学習の進行を加速するプロジェクションヘッドが設計されている。
安全性を高めるため、イベント駆動型強化報酬が採用される。
提案手法を検証するため,PyBulletを用いた物理シミュレーションと実世界の実験を行った。
提案手法は,古典的近位政策最適化やソフトアクター・クリティカル・ポリシーと比較して,推論を著しく高速化するだけでなく,操作タスクの達成率も向上することを示した。
アブレーション研究により, コントラスト学習によるRLが政策崩壊を克服することを確認した。
追加デモはhttps://cyberyyc.github.io/で公開されている。
関連論文リスト
- Precise and Dexterous Robotic Manipulation via Human-in-the-Loop Reinforcement Learning [47.785786984974855]
本稿では,多種多様な操作タスクに対して印象的な性能を示す,ループ内視覚に基づくRLシステムを提案する。
提案手法では,実証と人間の修正,効率的なRLアルゴリズム,その他のシステムレベルの設計選択を統合してポリシを学習する。
提案手法は,再現学習のベースラインと先行RLアプローチを著しく上回り,成功率の平均2倍,実行速度1.8倍に向上した。
論文 参考訳(メタデータ) (2024-10-29T08:12:20Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement Learning [82.46975428739329]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。