論文の概要: AnyTask: an Automated Task and Data Generation Framework for Advancing Sim-to-Real Policy Learning
- arxiv url: http://arxiv.org/abs/2512.17853v1
- Date: Fri, 19 Dec 2025 17:55:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.521645
- Title: AnyTask: an Automated Task and Data Generation Framework for Advancing Sim-to-Real Policy Learning
- Title(参考訳): AnyTask: 即時政策学習を支援するためのタスクとデータの自動生成フレームワーク
- Authors: Ran Gong, Xiaohan Zhang, Jinghuan Shang, Maria Vittoria Minniti, Jigarkumar Patel, Valerio Pepe, Riedana Yan, Ahmet Gundogdu, Ivan Kapelyukh, Ali Abbas, Xiaoqiang Yan, Harsh Patel, Laura Herlant, Karl Schmeckpeper,
- Abstract要約: 大規模で多様な、高品質なインタラクションデータは、現実の世界で収集するのに費用がかかる。
我々はAnyTaskという,大規模並列GPUシミュレーションと基礎モデルを組み合わせて多様な操作タスクを設計する自動化フレームワークを提示する。
我々は、生成されたデータに基づいて行動クローニングポリシーを訓練し、シミュレーションで検証し、実際のロボットハードウェアに直接デプロイする。
- 参考スコア(独自算出の注目度): 16.837846476054786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalist robot learning remains constrained by data: large-scale, diverse, and high-quality interaction data are expensive to collect in the real world. While simulation has become a promising way for scaling up data collection, the related tasks, including simulation task design, task-aware scene generation, expert demonstration synthesis, and sim-to-real transfer, still demand substantial human effort. We present AnyTask, an automated framework that pairs massively parallel GPU simulation with foundation models to design diverse manipulation tasks and synthesize robot data. We introduce three AnyTask agents for generating expert demonstrations aiming to solve as many tasks as possible: 1) ViPR, a novel task and motion planning agent with VLM-in-the-loop Parallel Refinement; 2) ViPR-Eureka, a reinforcement learning agent with generated dense rewards and LLM-guided contact sampling; 3) ViPR-RL, a hybrid planning and learning approach that jointly produces high-quality demonstrations with only sparse rewards. We train behavior cloning policies on generated data, validate them in simulation, and deploy them directly on real robot hardware. The policies generalize to novel object poses, achieving 44% average success across a suite of real-world pick-and-place, drawer opening, contact-rich pushing, and long-horizon manipulation tasks. Our project website is at https://anytask.rai-inst.com .
- Abstract(参考訳): 大規模で多様な、高品質なインタラクションデータは、現実の世界で収集するのに費用がかかる。
シミュレーションはデータ収集のスケールアップに有望な方法となっているが、シミュレーションタスク設計、タスク対応シーン生成、専門家による実演合成、シム・トゥ・リアル・トランスファーなどの関連タスクは、依然として相当な人的努力を必要としている。
我々は,大規模並列GPUシミュレーションと基礎モデルとを組み合わせ,多様な操作タスクを設計し,ロボットデータを合成する自動化フレームワークであるAnyTaskを提案する。
我々は3つのAnyTaskエージェントを導入し、可能な限り多くのタスクを解決すべく、専門家によるデモを生成する。
1) VLM-in-the-loop Parallel Refinement を用いた新規作業・動作計画剤 ViPR
2)高密度報酬とLLM誘導接触サンプリングを有する強化学習剤ViPR-Eureka
3) ViPR-RLは, まばらな報酬のみを伴って, 高品質な実演を共同で生み出すハイブリッド計画学習手法である。
我々は、生成されたデータに基づいて行動クローニングポリシーを訓練し、シミュレーションで検証し、実際のロボットハードウェアに直接デプロイする。
ポリシーは、新しいオブジェクトのポーズに一般化され、現実世界のピック・アンド・プレイス、引き出しのオープニング、コンタクトリッチなプッシュ、ロングホライゾン操作タスクで平均44%の成功を達成した。
プロジェクトのWebサイトはhttps://anytask.rai-inst.comにあります。
関連論文リスト
- Video2Policy: Scaling up Manipulation Tasks in Simulation through Internet Videos [61.925837909969815]
我々は,インターネット上のRGBビデオを利用して日常の人間行動に基づいてタスクを再構築する新しいフレームワークであるVideo2Policyを紹介した。
本手法は投球のような複雑で困難なタスクを含む,そのようなタスクに対するRLポリシーのトレーニングに成功している。
生成したシミュレーションデータは,一般的なポリシをトレーニングするためにスケールアップ可能であり,Real2Sim2Real方式で実ロボットに転送可能であることを示す。
論文 参考訳(メタデータ) (2025-02-14T03:22:03Z) - GRS: Generating Robotic Simulation Tasks from Real-World Images [21.599606995763036]
GRSは単一のRGB-D観測からデジタルツインシミュレーションを作成し、仮想エージェントトレーニングのための解決可能なタスクを行う。
生成したテストスイートを通じてシミュレーションタスクのアライメントを確保し、シミュレーションとテストコードの両方を反復的に洗練するルータを導入する。
論文 参考訳(メタデータ) (2024-10-20T23:33:06Z) - Synthesizing Post-Training Data for LLMs through Multi-Agent Simulation [51.20656279478878]
MATRIXは、様々なテキストベースのシナリオを自動的に生成するマルチエージェントシミュレータである。
制御可能でリアルなデータ合成のためのMATRIX-Genを紹介する。
AlpacaEval 2 と Arena-Hard のベンチマークでは、Llama-3-8B-Base が、MATRIX-Gen によって合成されたデータセット上で、たった 20K の命令応答ペアで、Meta の Llama-3-8B-Instruct モデルより優れています。
論文 参考訳(メタデータ) (2024-10-18T08:01:39Z) - GenSim2: Scaling Robot Data Generation with Multi-modal and Reasoning LLMs [38.281562732050084]
GenSim2は、複雑で現実的なシミュレーションタスク作成のためのスケーラブルなフレームワークである。
パイプラインは200のオブジェクトで最大100の調音タスクのデータを生成し、必要な人的労力を減らすことができる。
我々は、生成したデータをゼロショット転送や実世界の収集データとの協調訓練に使用できる、GenSim2の有望な使用法を示す。
論文 参考訳(メタデータ) (2024-10-04T17:51:33Z) - DrEureka: Language Model Guided Sim-To-Real Transfer [64.14314476811806]
シミュレーションで学んだ政策を現実世界に伝達することは、ロボットのスキルを大規模に獲得する上で有望な戦略である。
本稿では,Large Language Models (LLMs) を用いてシム・トゥ・リアル設計の自動化と高速化を行う。
本手法では,ヨガボールの上を歩行する四足歩行や四足歩行など,新しいロボットタスクを解くことができる。
論文 参考訳(メタデータ) (2024-06-04T04:53:05Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Gen2Sim: Scaling up Robot Learning in Simulation with Generative Models [17.757495961816783]
Gen2Simは、3Dアセット、タスク記述、タスク分解、報酬関数の自動生成によるシミュレーションにおけるロボットスキル学習のスケールアップ方法である。
私たちの研究は、シミュレーションにおける完全に自律的なロボット操作スキル獲得に向けて、何百ものシミュレーション資産、タスク、デモに貢献しています。
論文 参考訳(メタデータ) (2023-10-27T17:55:32Z) - GenSim: Generating Robotic Simulation Tasks via Large Language Models [34.79613485106202]
GenSimは、リッチなシミュレーション環境とエキスパートのデモを自動的に生成することを目指している。
既存のベンチマークを10倍から100以上のタスクに拡張するために、GPT4を使用します。
最小限のsim-to-real適応により、GPT4生成したシミュレーションタスクで事前訓練されたマルチタスクポリシーは、現実世界で目に見えないロングホライゾンタスクへのより強力な転送を示す。
論文 参考訳(メタデータ) (2023-10-02T17:23:48Z) - VIMA: General Robot Manipulation with Multimodal Prompts [82.01214865117637]
ロボット操作タスクの幅広い範囲をマルチモーダルプロンプトで表現できることを示す。
我々は,数千の手続き的に生成されたテーブルトップタスクからなる新しいシミュレーションベンチマークを開発した。
我々は、これらのプロンプトを処理し、自動回帰的に運動動作を出力するトランスフォーマーベースのロボットエージェントVIMAを設計する。
論文 参考訳(メタデータ) (2022-10-06T17:50:11Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。