論文の概要: UGG: Unified Generative Grasping
- arxiv url: http://arxiv.org/abs/2311.16917v1
- Date: Tue, 28 Nov 2023 16:20:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:39:30.446395
- Title: UGG: Unified Generative Grasping
- Title(参考訳): UGG: 統一ジェネレーティブ・グラッピング
- Authors: Jiaxin Lu, Hao Kang, Haoxiang Li, Bo Liu, Yiding Yang, Qixing Huang,
Gang Hua
- Abstract要約: オブジェクトに条件付けされたグリーティング姿勢を生成するジェネレーションベースの手法は、しばしば多様なグリーティングを生成する。
我々は,UGGという名前の拡散に基づくデクスタラスグリップ生成モデルを導入する。
本モデルでは,大規模DexGraspNetデータセットを用いて,最先端のデクスタラスグルーピングを実現する。
- 参考スコア(独自算出の注目度): 43.26740792207497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dexterous grasping aims to produce diverse grasping postures with a high
grasping success rate. Regression-based methods that directly predict grasping
parameters given the object may achieve a high success rate but often lack
diversity. Generation-based methods that generate grasping postures conditioned
on the object can often produce diverse grasping, but they are insufficient for
high grasping success due to lack of discriminative information. To mitigate,
we introduce a unified diffusion-based dexterous grasp generation model, dubbed
the name UGG, which operates within the object point cloud and hand parameter
spaces. Our all-transformer architecture unifies the information from the
object, the hand, and the contacts, introducing a novel representation of
contact points for improved contact modeling. The flexibility and quality of
our model enable the integration of a lightweight discriminator, benefiting
from simulated discriminative data, which pushes for a high success rate while
preserving high diversity. Beyond grasp generation, our model can also generate
objects based on hand information, offering valuable insights into object
design and studying how the generative model perceives objects. Our model
achieves state-of-the-art dexterous grasping on the large-scale DexGraspNet
dataset while facilitating human-centric object design, marking a significant
advancement in dexterous grasping research. Our project page is
https://jiaxin-lu.github.io/ugg/ .
- Abstract(参考訳): 難易度把握は、高い把握成功率で多様な把握姿勢を生み出すことを目的としている。
対象に与えられた把持パラメータを直接予測する回帰に基づく手法は、高い成功率を達成できるが、しばしば多様性を欠く。
対象物に条件づけられた把持姿勢を生成する世代ベースの手法は、多種多様な把持を生じることが多いが、識別情報の欠如により、高い把持成功には不十分である。
そこで我々は,オブジェクトポイントクラウドとハンドパラメータ空間内で動作する ugg という名称の統一拡散型デクスタラス把持生成モデルを提案する。
我々のオールトランスフォーマーアーキテクチャは、オブジェクト、手、連絡先からの情報を統一し、接触モデリングを改善するための新しい接触点の表現を導入します。
モデルの柔軟性と品質は,高い多様性を維持しながら高い成功率を追求する識別データのシミュレーションによるメリットを生かした,軽量な判別器の統合を可能にした。
また,手書き情報に基づいてオブジェクトを生成し,オブジェクト設計に関する貴重な洞察を与え,生成モデルがオブジェクトをどのように知覚するかを研究する。
本モデルは,人間中心のオブジェクト設計を容易化しつつ,大規模dexgraspnetデータセットの最先端の把握を実現する。
プロジェクトページはhttps://jiaxin-lu.github.io/ugg/。
関連論文リスト
- A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Diversity vs. Recognizability: Human-like generalization in one-shot
generative models [5.964436882344729]
サンプル認識可能性と多様性の2つの軸に沿った1ショット生成モデルを評価するための新しい枠組みを提案する。
まず、GANのようなモデルとVAEのようなモデルが多様性認識性空間の反対側にあることを示す。
対照的に、非絡み合いは、認識可能性の最大化に使用できるパラボラ曲線に沿ってモデルを輸送する。
論文 参考訳(メタデータ) (2022-05-20T13:17:08Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Graph-based Normalizing Flow for Human Motion Generation and
Reconstruction [20.454140530081183]
過去の情報と制御信号に基づく長地平線運動系列を合成・再構築する確率生成モデルを提案する。
足踏み解析と骨長解析を併用したモーションキャプチャデータセットを用いたモデル評価を行った。
論文 参考訳(メタデータ) (2021-04-07T09:51:15Z) - Attribute-Based Robotic Grasping with One-Grasp Adaptation [9.255994599301712]
本稿では,属性に基づくロボットグリップのエンドツーエンド学習手法を提案する。
提案手法は,作業空間の画像とクエリテキストの埋め込みをゲートアテンション機構を用いて融合し,インスタンスの把握能力の予測を学習する。
シミュレーションと実世界での実験結果は、私たちのアプローチが80%以上のインスタンスで未知のオブジェクトの成功率を把握できることを示しています。
論文 参考訳(メタデータ) (2021-04-06T03:40:46Z) - Combining Semantic Guidance and Deep Reinforcement Learning For
Generating Human Level Paintings [22.889059874754242]
脳卒中に基づく非フォトリアリスティック画像の生成は、コンピュータビジョンコミュニティにおいて重要な問題である。
従来の手法は、前景オブジェクトの位置、規模、正当性にほとんど変化のないデータセットに限られていた。
本研究では,1)前景と背景の筆画の区別を学習するための2段階の塗装手順を備えたセマンティック・ガイダンス・パイプラインを提案する。
論文 参考訳(メタデータ) (2020-11-25T09:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。