論文の概要: GraspGen: A Diffusion-based Framework for 6-DOF Grasping with On-Generator Training
- arxiv url: http://arxiv.org/abs/2507.13097v1
- Date: Thu, 17 Jul 2025 13:09:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.507759
- Title: GraspGen: A Diffusion-based Framework for 6-DOF Grasping with On-Generator Training
- Title(参考訳): GraspGen: オンジェネレータトレーニングによる6-DOFグラフ作成のための拡散ベースのフレームワーク
- Authors: Adithyavairavan Murali, Balakumar Sundaralingam, Yu-Wei Chao, Wentao Yuan, Jun Yamada, Mark Carlson, Fabio Ramos, Stan Birchfield, Dieter Fox, Clemens Eppner,
- Abstract要約: 我々は,オブジェクト中心のグリップ生成過程を反復拡散過程としてモデル化する上で,近年の成功を生かしている。
提案するフレームワークであるGraspGenは、グリップ生成を向上するDiffusion Transformerアーキテクチャで構成され、効率的な識別器と組み合わせて、サンプリングしたグリップのスコアとフィルタを行う。
GraspGenをオブジェクトとグリップの両方に拡張するために、53万以上のグリップからなるシミュレーションデータセットを新たにリリースしました。
- 参考スコア(独自算出の注目度): 53.25060512131128
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Grasping is a fundamental robot skill, yet despite significant research advancements, learning-based 6-DOF grasping approaches are still not turnkey and struggle to generalize across different embodiments and in-the-wild settings. We build upon the recent success on modeling the object-centric grasp generation process as an iterative diffusion process. Our proposed framework, GraspGen, consists of a DiffusionTransformer architecture that enhances grasp generation, paired with an efficient discriminator to score and filter sampled grasps. We introduce a novel and performant on-generator training recipe for the discriminator. To scale GraspGen to both objects and grippers, we release a new simulated dataset consisting of over 53 million grasps. We demonstrate that GraspGen outperforms prior methods in simulations with singulated objects across different grippers, achieves state-of-the-art performance on the FetchBench grasping benchmark, and performs well on a real robot with noisy visual observations.
- Abstract(参考訳): グラスピングは基本的なロボットのスキルだが、大きな研究進歩にもかかわらず、学習ベースの6-DOFグルーピングアプローチは依然として変わらず、さまざまな実施形態や現場設定にまたがる一般化に苦戦している。
我々は,オブジェクト中心のグリップ生成過程を反復拡散過程としてモデル化する上で,近年の成功を生かしている。
提案するフレームワークであるGraspGenは、グリップ生成を向上するDiffusion Transformerアーキテクチャで構成され、効率的な識別器と組み合わせて、サンプリングしたグリップのスコアとフィルタを行う。
判別器のための新規かつ高性能なオンジェネレータトレーニングレシピを紹介する。
GraspGenをオブジェクトとグリップの両方に拡張するために、53万以上のグリップからなるシミュレーションデータセットを新たにリリースしました。
本研究では,FetchBenchグリーティングベンチマークにおいて,異なるグリップパにまたがる物体を模擬したシミュレーションにおいて,従来の手法よりも優れた性能を示し,ノイズの多い視覚的観察を行う実ロボットに対して良好な性能を示すことを示す。
関連論文リスト
- Exploring Training and Inference Scaling Laws in Generative Retrieval [50.82554729023865]
生成検索は、検索を自己回帰生成タスクとして再構成し、大きな言語モデルがクエリから直接ターゲット文書を生成する。
生成的検索におけるトレーニングと推論のスケーリング法則を体系的に検討し,モデルのサイズ,トレーニングデータスケール,推論時間計算が協調的に性能に与える影響について検討した。
論文 参考訳(メタデータ) (2025-03-24T17:59:03Z) - HybridGen: VLM-Guided Hybrid Planning for Scalable Data Generation of Imitation Learning [2.677995462843075]
HybridGenはビジョンランゲージモデルとハイブリッドプランニングを統合する自動化フレームワークである。
特定のデータフォーマットを必要とせずに、大量のトレーニングデータを生成する。
最も困難なタスク変種では、HybridGenは、59.7%の平均的な成功率に到達して、大幅な改善を達成している。
論文 参考訳(メタデータ) (2025-03-17T13:49:43Z) - Self-Guidance: Boosting Flow and Diffusion Generation on Their Own [32.91402070439289]
自己誘導(SG)は、低品質サンプルの生成を抑制して画質を向上させる。
我々は、異なるアーキテクチャでテキスト・ツー・イメージとテキスト・ツー・ビデオ生成の実験を行う。
論文 参考訳(メタデータ) (2024-12-08T06:32:27Z) - One-Step Diffusion Distillation through Score Implicit Matching [74.91234358410281]
本稿では,Score Implicit Matching (SIM) を用いて,事前学習した拡散モデルを単一ステップジェネレータモデルに蒸留する手法を提案する。
SIMはワンステップジェネレータに対して強い経験的性能を示す。
リードトランスに基づく拡散モデルにSIMを適用することにより,テキスト・ツー・イメージ生成のための単一ステップ生成器を蒸留する。
論文 参考訳(メタデータ) (2024-10-22T08:17:20Z) - Is Tokenization Needed for Masked Particle Modelling? [8.79008927474707]
Masked Particle Modeling (MPM) は、無順序集合の表現表現を構築するための自己教師付き学習スキームである。
実装における非効率に対処し、より強力なデコーダを組み込むことにより、MPMを改善する。
これらの新しい手法は、ジェットの基礎モデルのための新しいテストベッドにおいて、オリジナルのMPMからのトークン化学習目標よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-19T09:12:29Z) - Accurate generation of stochastic dynamics based on multi-model
Generative Adversarial Networks [0.0]
GAN(Generative Adversarial Networks)は、テキストや画像生成などの分野において大きな可能性を秘めている。
ここでは、格子上の原型過程に適用することにより、このアプローチを定量的に検証する。
重要なことに、ノイズにもかかわらずモデルの離散性は維持される。
論文 参考訳(メタデータ) (2023-05-25T10:41:02Z) - Joint Generator-Ranker Learning for Natural Language Generation [99.16268050116717]
JGRは、ジェネレータとローダを単一のフレームワークに統合する、新しいジョイントトレーニングアルゴリズムである。
ジェネレータとランク装置を反復的に更新することにより、JGRは学習を効果的に調和させ、共同で品質を高めることができる。
論文 参考訳(メタデータ) (2022-06-28T12:58:30Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。