論文の概要: GenDexHand: Generative Simulation for Dexterous Hands
- arxiv url: http://arxiv.org/abs/2511.01791v1
- Date: Mon, 03 Nov 2025 17:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.35363
- Title: GenDexHand: Generative Simulation for Dexterous Hands
- Title(参考訳): GenDexHand: Dexterous Hands の生成シミュレーション
- Authors: Feng Chen, Zhuxiu Xu, Tianzhe Chu, Xunzhe Zhou, Li Sun, Zewen Wu, Shenghua Gao, Zhongyu Li, Yanchao Yang, Yi Ma,
- Abstract要約: GenDexHandは、複雑な操作のための多様なロボットタスクと環境を自律的に生成する生成シミュレーションパイプラインである。
我々の研究は、インボディード・インテリジェンスにおける多様な手の動きのスケーラブルなトレーニングに向けて実行可能な道筋を提供する。
- 参考スコア(独自算出の注目度): 33.204646313894095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data scarcity remains a fundamental bottleneck for embodied intelligence. Existing approaches use large language models (LLMs) to automate gripper-based simulation generation, but they transfer poorly to dexterous manipulation, which demands more specialized environment design. Meanwhile, dexterous manipulation tasks are inherently more difficult due to their higher degrees of freedom. Massively generating feasible and trainable dexterous hand tasks remains an open challenge. To this end, we present GenDexHand, a generative simulation pipeline that autonomously produces diverse robotic tasks and environments for dexterous manipulation. GenDexHand introduces a closed-loop refinement process that adjusts object placements and scales based on vision-language model (VLM) feedback, substantially improving the average quality of generated environments. Each task is further decomposed into sub-tasks to enable sequential reinforcement learning, reducing training time and increasing success rates. Our work provides a viable path toward scalable training of diverse dexterous hand behaviors in embodied intelligence by offering a simulation-based solution to synthetic data generation. Our website: https://winniechen2002.github.io/GenDexHand/.
- Abstract(参考訳): データ不足は、インテリジェンスを具現化するための基本的なボトルネックである。
既存のアプローチでは、大きな言語モデル(LLM)を使用してグリッパーベースのシミュレーション生成を自動化するが、より専門的な環境設計を必要とする厳密な操作にはあまり対応しない。
一方、厳密な操作作業は、その自由度が高いため、本質的に困難である。
実現可能で訓練可能な手作業は、依然としてオープンな課題だ。
この目的のために, 多様なロボットタスクや環境を自律的に生成する生成シミュレーションパイプラインであるGenDexHandを提案する。
GenDexHandは、視覚言語モデル(VLM)のフィードバックに基づいてオブジェクトの配置とスケールを調整するクローズドループ改善プロセスを導入し、生成された環境の平均品質を大幅に改善する。
各タスクはさらにサブタスクに分解され、逐次強化学習を可能にし、トレーニング時間を短縮し、成功率を高める。
我々の研究は、人工データ生成のためのシミュレーションベースのソリューションを提供することにより、インボディードインテリジェンスにおける多様な手の動きのスケーラブルなトレーニングを実現する。
私たちのWebサイト: https://winniechen2002.github.io/GenDexHand/。
関連論文リスト
- FieldGen: From Teleoperated Pre-Manipulation Trajectories to Field-Guided Data Generation [60.28409233931666]
FieldGenは、スケーラブルで多様な、高品質な実世界のデータ収集を可能にする、フィールド誘導型データ生成フレームワークである。
実験により、FieldGenでトレーニングされたポリシーは、遠隔操作ベースのベースラインと比較して、より高い成功率と安定性を達成することが示された。
論文 参考訳(メタデータ) (2025-10-23T17:47:12Z) - GenFlowRL: Shaping Rewards with Generative Object-Centric Flow in Visual Reinforcement Learning [79.68241687396603]
本稿では,多種多様な組織間データセットから学習した生成フローから,形状の報酬を導出するGenFlowRLを提案する。
GenFlowRLは、生成したオブジェクト中心の流れから抽出した操作機能を効果的に活用できることを、シミュレーションと実世界のクロスエボディメント評価の両方で実証した。
論文 参考訳(メタデータ) (2025-08-14T20:19:20Z) - HumanoidGen: Data Generation for Bimanual Dexterous Manipulation via LLM Reasoning [46.57163859424286]
本稿では,自動タスク生成およびデモコレクションフレームワークであるHumanoidGenを提案する。
具体的には,原子の操作に基づいて,資産と器用な手の両方に空間アノテーションを提供する。
実験では,収集したデータの品質を評価するために,拡張シナリオを用いた新しいベンチマークを作成する。
論文 参考訳(メタデータ) (2025-07-01T15:04:38Z) - RoboTwin 2.0: A Scalable Data Generator and Benchmark with Strong Domain Randomization for Robust Bimanual Robotic Manipulation [52.2244588424002]
我々は,多様かつ現実的なデータの自動生成のためのスケーラブルなフレームワークであるRoboTwin 2.0を紹介する。
コアとなるRoboTwin-ODは、セマンティックおよび操作関連アノテーションを備えた147カテゴリにわたる771インスタンスのオブジェクトライブラリである。
sim-to-real転送を改善するために、RoboTwin 2.0は5つの軸に沿って構造化された領域ランダム化を適用する。
論文 参考訳(メタデータ) (2025-06-22T16:26:53Z) - ManipTrans: Efficient Dexterous Bimanual Manipulation Transfer via Residual Learning [24.675197489823898]
シミュレーションにおいて,ヒトの両腕のスキルを手指に伝達する新しい手法であるManipTransを紹介した。
実験によると、ManipTransは成功率、忠実度、効率性において最先端の手法を超越している。
DexManipNetという大規模なデータセットも作成しています。
論文 参考訳(メタデータ) (2025-03-27T17:50:30Z) - DexterityGen: Foundation Controller for Unprecedented Dexterity [67.15251368211361]
ツール使用など,ロボットの巧妙な操作スキルを教えることは,大きな課題となる。
現在のアプローチは、人間の遠隔操作(模倣学習)とシミュレート・トゥ・リアル強化学習(sim-to-real reinforcement learning)の2つの戦略に大別できる。
本稿では,手動回転や翻訳などの大規模動きプリミティブをRLで事前学習するDexterityGenを紹介する。
現実の世界では、人間の遠隔操作をコントローラーのプロンプトとして利用し、厳密な振る舞いを生み出す。
論文 参考訳(メタデータ) (2025-02-06T18:49:35Z) - DexMimicGen: Automated Data Generation for Bimanual Dexterous Manipulation via Imitation Learning [42.88605563822155]
本稿では,人間の手による人型ロボットの人体実験からトラジェクトリを合成する大規模自動データ生成システムを提案する。
私たちは、たった60のソースの人間デモから、これらのタスク全体で21Kのデモを生成します。
また、実世界のヒューマノイド缶ソートタスクに、実世界のシミュレート・トゥ・リアルパイプラインを配置する。
論文 参考訳(メタデータ) (2024-10-31T17:48:45Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。