論文の概要: DexWild: Dexterous Human Interactions for In-the-Wild Robot Policies
- arxiv url: http://arxiv.org/abs/2505.07813v1
- Date: Mon, 12 May 2025 17:59:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.537014
- Title: DexWild: Dexterous Human Interactions for In-the-Wild Robot Policies
- Title(参考訳): DexWild:In-the-Wild Robot PoliciesのためのDexterous Human Interactions
- Authors: Tony Tao, Mohan Kumar Srirama, Jason Jingzhou Liu, Kenneth Shaw, Deepak Pathak,
- Abstract要約: 大規模で多様なロボットデータセットが、巧妙な操作ポリシーを実現するための有望な道として登場した。
しかし、そのようなデータセットの取得には多くの課題がある。
毎日のように自分の手を使ってデータを収集できるとしたらどうだろう?
DexWildでは、さまざまなデータ収集チームが手を使って、さまざまな環境やオブジェクトにわたる数時間のインタラクションを収集しています。
- 参考スコア(独自算出の注目度): 31.147473662739692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale, diverse robot datasets have emerged as a promising path toward enabling dexterous manipulation policies to generalize to novel environments, but acquiring such datasets presents many challenges. While teleoperation provides high-fidelity datasets, its high cost limits its scalability. Instead, what if people could use their own hands, just as they do in everyday life, to collect data? In DexWild, a diverse team of data collectors uses their hands to collect hours of interactions across a multitude of environments and objects. To record this data, we create DexWild-System, a low-cost, mobile, and easy-to-use device. The DexWild learning framework co-trains on both human and robot demonstrations, leading to improved performance compared to training on each dataset individually. This combination results in robust robot policies capable of generalizing to novel environments, tasks, and embodiments with minimal additional robot-specific data. Experimental results demonstrate that DexWild significantly improves performance, achieving a 68.5% success rate in unseen environments-nearly four times higher than policies trained with robot data only-and offering 5.8x better cross-embodiment generalization. Video results, codebases, and instructions at https://dexwild.github.io
- Abstract(参考訳): 大規模で多様なロボットデータセットは、新しい環境に一般化するための巧妙な操作ポリシーを実現するための有望な道として現れてきたが、そのようなデータセットを取得することは多くの課題を呈している。
遠隔操作は高忠実度データセットを提供するが、その高コストはスケーラビリティを制限する。
その代わり、毎日のように自分の手を使ってデータを収集できるとしたらどうだろう?
DexWildでは、さまざまなデータ収集チームが手を使って、さまざまな環境やオブジェクトにわたる数時間のインタラクションを収集しています。
このデータを記録するために、低コストでモバイルで使いやすいデバイスであるDexWild-Systemを作成します。
DexWildの学習フレームワークは、人間とロボットの両方のデモを併用することで、個々のデータセットでのトレーニングよりもパフォーマンスが改善される。
この組み合わせにより、ロボット固有の最小限の追加データで、新しい環境、タスク、具体化を一般化できるロバストなロボットポリシーが実現される。
実験結果から,DexWildはロボットデータのみを訓練したポリシーの約4倍の環境において,68.5%の成功率を実現し,性能を著しく向上させることが示された。
https://dexwild.github.io
関連論文リスト
- Tool-as-Interface: Learning Robot Policies from Human Tool Usage through Imitation Learning [16.394434999046293]
ツール使用時の知識を人間からロボットに伝達する枠組みを提案する。
我々は,ミートボールスクーピング,パンフリップ,ワインボトルのバランス,その他の複雑なタスクなど,現実世界のさまざまなタスクに対するアプローチを検証する。
論文 参考訳(メタデータ) (2025-04-06T20:40:19Z) - DexMimicGen: Automated Data Generation for Bimanual Dexterous Manipulation via Imitation Learning [42.88605563822155]
本稿では,人間の手による人型ロボットの人体実験からトラジェクトリを合成する大規模自動データ生成システムを提案する。
私たちは、たった60のソースの人間デモから、これらのタスク全体で21Kのデモを生成します。
また、実世界のヒューマノイド缶ソートタスクに、実世界のシミュレート・トゥ・リアルパイプラインを配置する。
論文 参考訳(メタデータ) (2024-10-31T17:48:45Z) - Scaling Cross-Embodied Learning: One Policy for Manipulation, Navigation, Locomotion and Aviation [49.03165169369552]
さまざまな種類のロボットにまたがって単一のポリシーを訓練することによって、ロボット学習はより広範囲で多様なデータセットを活用することができる。
そこで我々はCrossFormerを提案する。CrossFormerはスケーラブルでフレキシブルなトランスフォーマーベースのポリシーで、どんな実施形態からでもデータを消費できる。
我々は、同じネットワークウェイトがシングルアームとデュアルアームの操作システム、車輪付きロボット、クワッドコプター、四足歩行など、非常に異なるロボットを制御できることを実証した。
論文 参考訳(メタデータ) (2024-08-21T17:57:51Z) - BridgeData V2: A Dataset for Robot Learning at Scale [73.86688388408021]
BridgeData V2は、ロボット操作行動の大規模で多様なデータセットである。
対象は、24の環境にまたがる60,096個のトラジェクトリだ。
論文 参考訳(メタデータ) (2023-08-24T17:41:20Z) - Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。