論文の概要: FACTR: Force-Attending Curriculum Training for Contact-Rich Policy Learning
- arxiv url: http://arxiv.org/abs/2502.17432v1
- Date: Mon, 24 Feb 2025 18:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:58:59.133540
- Title: FACTR: Force-Attending Curriculum Training for Contact-Rich Policy Learning
- Title(参考訳): FACTR:コンタクトリッチ政策学習のための強制学習カリキュラム
- Authors: Jason Jingzhou Liu, Yulong Li, Kenneth Shaw, Tony Tao, Ruslan Salakhutdinov, Deepak Pathak,
- Abstract要約: フォースフィードバックは、ほとんどのロボットアームで簡単に利用できるが、遠隔操作や政策学習では一般的には使われない。
本稿では,低コストで直感的で双方向な遠隔操作システムを提案し,従者アームの外部力を教師アームに伝える。
次に、FACTRというカリキュラムを利用した政策学習手法を導入し、学習を通して視覚入力を劣化させ、強度を低下させる。
- 参考スコア(独自算出の注目度): 70.65987250853311
- License:
- Abstract: Many contact-rich tasks humans perform, such as box pickup or rolling dough, rely on force feedback for reliable execution. However, this force information, which is readily available in most robot arms, is not commonly used in teleoperation and policy learning. Consequently, robot behavior is often limited to quasi-static kinematic tasks that do not require intricate force-feedback. In this paper, we first present a low-cost, intuitive, bilateral teleoperation setup that relays external forces of the follower arm back to the teacher arm, facilitating data collection for complex, contact-rich tasks. We then introduce FACTR, a policy learning method that employs a curriculum which corrupts the visual input with decreasing intensity throughout training. The curriculum prevents our transformer-based policy from over-fitting to the visual input and guides the policy to properly attend to the force modality. We demonstrate that by fully utilizing the force information, our method significantly improves generalization to unseen objects by 43\% compared to baseline approaches without a curriculum. Video results and instructions at https://jasonjzliu.com/factr/
- Abstract(参考訳): ボックスピックアップやローリング生地など、人間が実行する多くのコンタクトリッチタスクは、信頼性の高い実行のために強制フィードバックに依存している。
しかし、ほとんどのロボットアームで容易に利用できるこの力情報は、遠隔操作や政策学習には一般的には使われない。
その結果、ロボットの動作は、複雑な力覚フィードバックを必要としない準静的運動タスクに制限されることが多い。
本稿ではまず,従者アームの外部力を教師アームにリレーする,低コストで直感的で双方向な遠隔操作システムを提案する。
次に、FACTRというカリキュラムを利用した政策学習手法を導入し、学習を通して視覚入力を劣化させ、強度を低下させる。
このカリキュラムは、トランスフォーマーベースのポリシーが視覚入力に過度に適合するのを防ぎ、そのポリシーが力のモダリティに適切に適合するように誘導する。
本手法は,力情報を完全に活用することにより,カリキュラムなしのベースラインアプローチと比較して,未知の物体への一般化を43倍に向上することを示した。
https://jasonjzliu.com/factr/
関連論文リスト
- Contact Energy Based Hindsight Experience Prioritization [19.42106651692228]
強化学習(RL)アルゴリズムでは,報酬の少ないマルチゴールロボット操作作業が困難である。
Hindsight Experience Replay (HER)のような最近のアルゴリズムは、失敗軌跡を生かして学習を高速化している。
本稿では,コンタクトによるリッチな情報に基づいて,リプレイバッファからサンプルを選択するための,CEBP(Contact Energy Based Prioritization)を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:32:25Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - MOMA-Force: Visual-Force Imitation for Real-World Mobile Manipulation [15.333753481333067]
MOMA-Forceは、認識のための表現学習、複雑な動作生成のための模倣学習、システムの堅牢性と制御性のための全身制御をシームレスに組み合わせた視覚力模倣手法である。
本手法は, 力の模倣を伴わないベースライン法と比較して, 接触力と力のばらつきを小さくする。
論文 参考訳(メタデータ) (2023-08-07T14:31:07Z) - Action-Conditioned Contrastive Policy Pretraining [39.13710045468429]
深層運動のポリシー学習は、ロボット操作や自律運転などの制御タスクにおいて有望な結果を達成する。
トレーニング環境との膨大な数のオンラインインタラクションが必要です。
本研究では、数時間の未計算YouTubeビデオを用いて、タスクを駆動するためのポリシー表現を事前訓練することを目的とする。
論文 参考訳(メタデータ) (2022-04-05T17:58:22Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Human-in-the-Loop Imitation Learning using Remote Teleoperation [72.2847988686463]
6-DoF操作設定に合わせたデータ収集システムを構築します。
システムによって収集された新しいデータに基づいて,ポリシーを反復的にトレーニングするアルゴリズムを開発した。
介入型システムで収集したデータに基づいて訓練されたエージェントと、非介入型デモ参加者が収集した同等数のサンプルで訓練されたアルゴリズムを上回るエージェントを実証する。
論文 参考訳(メタデータ) (2020-12-12T05:30:35Z) - COG: Connecting New Skills to Past Experience with Offline Reinforcement
Learning [78.13740204156858]
我々は、動的プログラミングによって新しいスキルを拡張するために、事前データを再利用できることを示します。
我々は、新しいタスクを解決するために、以前のデータセットに見られるいくつかの動作をチェーンすることで、アプローチの有効性を実証する。
我々は、高次元画像観察を低レベルのロボット制御コマンドにマッピングし、エンドツーエンドでポリシーを訓練する。
論文 参考訳(メタデータ) (2020-10-27T17:57:29Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Deep Adversarial Reinforcement Learning for Object Disentangling [36.66974848126079]
本稿では, 廃棄物の密接化を図り, 対人強化学習(ARL)フレームワークを提案する。
ARLフレームワークは、元のエージェントであるプロタゴニストを挑戦する状態に操るために訓練された敵を利用する。
本手法は,ロボット制御のためのエンドツーエンドシステムを用いて,難易度の高い物体分離タスクを学習することにより,シナリオの学習からテストまでを一般化できることを示す。
論文 参考訳(メタデータ) (2020-03-08T13:20:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。