論文の概要: NAP: Neural 3D Articulation Prior
- arxiv url: http://arxiv.org/abs/2305.16315v1
- Date: Thu, 25 May 2023 17:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 13:01:27.389202
- Title: NAP: Neural 3D Articulation Prior
- Title(参考訳): NAP:ニューラルな3Dアーティキュレーション
- Authors: Jiahui Lei and Congyue Deng and Bokui Shen and Leonidas Guibas and
Kostas Daniilidis
- Abstract要約: 本研究では,3次元合成対象モデルを合成する最初の3次元深部生成モデルであるNeural 3D Articulation Prior (NAP)を提案する。
そこで我々はまず,新しい調音木/グラフパラメタライゼーションを設計し,この表現に対して拡散減衰確率モデルを適用した。
分布が互いに影響を及ぼすような幾何構造と運動構造の両方を捉えるために,逆拡散過程を学習するためのグラフアテンション認知ネットワークを設計する。
- 参考スコア(独自算出の注目度): 31.875925637190328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Neural 3D Articulation Prior (NAP), the first 3D deep generative
model to synthesize 3D articulated object models. Despite the extensive
research on generating 3D objects, compositions, or scenes, there remains a
lack of focus on capturing the distribution of articulated objects, a common
object category for human and robot interaction. To generate articulated
objects, we first design a novel articulation tree/graph parameterization and
then apply a diffusion-denoising probabilistic model over this representation
where articulated objects can be generated via denoising from random complete
graphs. In order to capture both the geometry and the motion structure whose
distribution will affect each other, we design a graph-attention denoising
network for learning the reverse diffusion process. We propose a novel distance
that adapts widely used 3D generation metrics to our novel task to evaluate
generation quality, and experiments demonstrate our high performance in
articulated object generation. We also demonstrate several conditioned
generation applications, including Part2Motion, PartNet-Imagination,
Motion2Part, and GAPart2Object.
- Abstract(参考訳): 本研究では,3次元合成対象モデルを合成する最初の3次元深部生成モデルであるNeural 3D Articulation Prior (NAP)を提案する。
3dオブジェクト、コンポジション、シーンの生成に関する広範な研究にもかかわらず、人間とロボットの相互作用のための共通のオブジェクトカテゴリである関節オブジェクトの分布を捉えることに焦点が当てられていない。
調停対象を生成するために,まず,新しい調停木/グラフパラメータ化を設計,次に拡散密度確率モデルを適用し,無作為完全グラフから調停対象を生成する。
分布が互いに影響を及ぼすような幾何構造と運動構造の両方を捉えるために,逆拡散過程を学習するためのグラフアテンション認知ネットワークを設計する。
本研究では,広範に使用されている3次元生成メトリクスを新しいタスクに適用し,生成品質を評価する新しい距離を提案する。
また、Part2Motion、PartNet-Imagination、Motion2Part、GAPart2Objectといった条件付き生成アプリケーションについても紹介する。
関連論文リスト
- Farm3D: Learning Articulated 3D Animals by Distilling 2D Diffusion [81.63322697335228]
我々は,「自由」な仮想監督から,音声オブジェクトのカテゴリー別3D再構成を学習するFarm3Dを提案する。
近年のアプローチでは,物体の3次元形状,アルベド,照明,物体発生の視点を予測するための単眼ネットワークである,対象カテゴリの単一視点画像の集合から学習することができる。
本研究では、安定拡散のような画像生成装置を用いて、そのような再構成ネットワークをスクラッチから学習するための仮想トレーニングデータを生成するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-20T17:59:34Z) - Explicit3D: Graph Network with Spatial Inference \\for Single Image 3D
Object Detection [33.92846980379943]
本稿では,オブジェクトの幾何学的特徴と意味論的特徴に基づいて,Explicit3Dという動的スパースグラフパイプラインを提案する。
SUN RGB-Dデータセットによる実験結果から,我々のExplicit3Dは最先端技術よりも優れた性能バランスを実現することが示された。
論文 参考訳(メタデータ) (2023-02-13T16:19:54Z) - Deep Generative Models on 3D Representations: A Survey [31.77761668630577]
生成モデルは、新しいインスタンスを生成することによって観測されたデータ分布を学習する。
可変オートエンコーダ (VAE) やGAN (Generative Adversarial Network) のような深層生成モデルは、2次元画像合成において著しく進歩している。
最近、研究者らは3Dデータが私たちの物理的世界とよりよく一致していることを考えると、注意を2D空間から3D空間に切り替えている。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image [58.69732754597448]
椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
論文 参考訳(メタデータ) (2021-08-05T16:20:12Z) - Learning Transferable Kinematic Dictionary for 3D Human Pose and Shape
Reconstruction [15.586347115568973]
ヒト関節の3次元回転の解空間を明示的に正規化するキネマティック辞書を提案する。
ニューラルネットワークのトレーニング中にシェイプアノテーションを使わずに,エンドツーエンドの3D再構築を実現する。
提案手法は、Human3.6M, MPI-INF-3DHP, LSPなどの大規模データセットの競合結果を得る。
論文 参考訳(メタデータ) (2021-04-02T09:24:29Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。