論文の概要: Scaling Single Human Demonstrations for Imitation Learning using Generative Foundational Models
- arxiv url: http://arxiv.org/abs/2602.12734v1
- Date: Fri, 13 Feb 2026 09:04:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.429514
- Title: Scaling Single Human Demonstrations for Imitation Learning using Generative Foundational Models
- Title(参考訳): 創発的基礎モデルを用いた模倣学習のためのシングルヒューマンデモのスケーリング
- Authors: Nick Heppert, Minh Quang Nguyen, Abhinav Valada,
- Abstract要約: 本研究では,1人の人間による実演から操作ポリシーを訓練するReal2Genを提案する。
Real2Genは、デモから必要な情報を抽出し、シミュレーション環境に転送する。
我々は、26.6%の成功率の平均的な増加と、訓練された政策の一般化を示す。
- 参考スコア(独自算出の注目度): 16.365940498738116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning is a popular paradigm to teach robots new tasks, but collecting robot demonstrations through teleoperation or kinesthetic teaching is tedious and time-consuming. In contrast, directly demonstrating a task using our human embodiment is much easier and data is available in abundance, yet transfer to the robot can be non-trivial. In this work, we propose Real2Gen to train a manipulation policy from a single human demonstration. Real2Gen extracts required information from the demonstration and transfers it to a simulation environment, where a programmable expert agent can demonstrate the task arbitrarily many times, generating an unlimited amount of data to train a flow matching policy. We evaluate Real2Gen on human demonstrations from three different real-world tasks and compare it to a recent baseline. Real2Gen shows an average increase in the success rate of 26.6% and better generalization of the trained policy due to the abundance and diversity of training data. We further deploy our purely simulation-trained policy zero-shot in the real world. We make the data, code, and trained models publicly available at real2gen.cs.uni-freiburg.de.
- Abstract(参考訳): 模倣学習はロボットに新しいタスクを教えるための一般的なパラダイムであるが、遠隔操作や審美的な教育を通じてロボットのデモを収集することは退屈で時間を要する。
対照的に、人間の体格を用いてタスクを直接示すことはずっと簡単で、データが豊富に利用できるが、ロボットへの転送は簡単ではない。
本研究では,1つの人間の実演から操作ポリシーを訓練するReal2Genを提案する。
Real2Genは、必要な情報をデモから抽出してシミュレーション環境に転送し、プログラマブル専門家エージェントが任意にタスクを実証し、フローマッチングポリシーをトレーニングするための無制限なデータを生成する。
実世界の3つのタスクから人間の実演についてReal2Genを評価し,最近のベースラインと比較した。
Real2Genは、トレーニングデータの豊富さと多様性により、26.6%の成功率の平均的な増加と、トレーニングされたポリシーの一般化が向上していることを示している。
我々はさらに、実世界で純粋に訓練されたポリシーゼロショットをデプロイする。
real2gen.cs.uni-freiburg.deで、データ、コード、トレーニングされたモデルを公開しています。
関連論文リスト
- Crossing the Human-Robot Embodiment Gap with Sim-to-Real RL using One Human Demonstration [21.94699075066712]
本稿では,タスクを実演する人間の1つのRGB-Dビデオのみを用いて,創発的な操作ポリシーを訓練する,新しいリアルタイム・シミュレート・トゥ・リアルフレームワークを提案する。
Human2Sim2Robotは、オブジェクト認識のリプレイを55%以上上回り、模倣学習を68%以上上回っている。
論文 参考訳(メタデータ) (2025-04-17T03:15:20Z) - Video2Policy: Scaling up Manipulation Tasks in Simulation through Internet Videos [61.925837909969815]
我々は,インターネット上のRGBビデオを利用して日常の人間行動に基づいてタスクを再構築する新しいフレームワークであるVideo2Policyを紹介した。
本手法は投球のような複雑で困難なタスクを含む,そのようなタスクに対するRLポリシーのトレーニングに成功している。
生成したシミュレーションデータは,一般的なポリシをトレーニングするためにスケールアップ可能であり,Real2Sim2Real方式で実ロボットに転送可能であることを示す。
論文 参考訳(メタデータ) (2025-02-14T03:22:03Z) - Robot Learning with Super-Linear Scaling [13.053949644385932]
CASHERは、データ収集と学習をシミュレーションでスケールアップするためのパイプラインであり、パフォーマンスは人間の努力と超直線的にスケールする。
そこで我々は,CASHERにより,人的努力を伴わないビデオスキャンにより,事前学習したポリシーを目標シナリオに微調整できることを示す。
論文 参考訳(メタデータ) (2024-12-02T18:12:02Z) - MimicGen: A Data Generation System for Scalable Robot Learning using
Human Demonstrations [55.549956643032836]
MimicGenは、少数の人間のデモから大規模でリッチなデータセットを自動的に合成するシステムである。
ロボットエージェントは,この生成したデータセットを模倣学習により効果的に訓練し,長期的・高精度なタスクにおいて高い性能を達成することができることを示す。
論文 参考訳(メタデータ) (2023-10-26T17:17:31Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。