論文の概要: Learning Feature Aggregation for Deep 3D Morphable Models
- arxiv url: http://arxiv.org/abs/2105.02173v1
- Date: Wed, 5 May 2021 16:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:45:53.310755
- Title: Learning Feature Aggregation for Deep 3D Morphable Models
- Title(参考訳): 深部3次元モーファブルモデルのための学習機能アグリゲーション
- Authors: Zhixiang Chen and Tae-Kyun Kim
- Abstract要約: 階層レベルで機能集約を向上するためのマッピング行列を学習するための注意に基づくモジュールを提案する。
実験の結果,マッピング行列のエンドツーエンドトレーニングにより,様々な3次元形状データセットの最先端結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 57.1266963015401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D morphable models are widely used for the shape representation of an object
class in computer vision and graphics applications. In this work, we focus on
deep 3D morphable models that directly apply deep learning on 3D mesh data with
a hierarchical structure to capture information at multiple scales. While great
efforts have been made to design the convolution operator, how to best
aggregate vertex features across hierarchical levels deserves further
attention. In contrast to resorting to mesh decimation, we propose an attention
based module to learn mapping matrices for better feature aggregation across
hierarchical levels. Specifically, the mapping matrices are generated by a
compatibility function of the keys and queries. The keys and queries are
trainable variables, learned by optimizing the target objective, and shared by
all data samples of the same object class. Our proposed module can be used as a
train-only drop-in replacement for the feature aggregation in existing
architectures for both downsampling and upsampling. Our experiments show that
through the end-to-end training of the mapping matrices, we achieve
state-of-the-art results on a variety of 3D shape datasets in comparison to
existing morphable models.
- Abstract(参考訳): 3Dフォーマブルモデルはコンピュータビジョンやグラフィックスアプリケーションにおけるオブジェクトクラスの形状表現に広く用いられている。
本研究では,階層構造を持つ3dメッシュデータにディープラーニングを直接適用し,複数のスケールで情報をキャプチャする,深層3次元モーファブルモデルに注目した。
畳み込み演算子の設計には多大な努力が払われているが、階層レベルで頂点機能をベストに集約する方法は、さらに注目に値する。
メッシュデシメーションを利用するのとは対照的に,階層レベルの機能集約を改善するために,マッピング行列を学習するためのアテンションベースモジュールを提案する。
具体的には、マッピング行列はキーとクエリの互換性関数によって生成される。
キーとクエリはトレーニング可能な変数で、ターゲットの目的を最適化して学習し、同じオブジェクトクラスのすべてのデータサンプルで共有される。
提案モジュールは,既存アーキテクチャの機能集約の列車のみのドロップイン代替として,ダウンサンプリングとアップサンプリングの両方に使用することができる。
実験により, マッピング行列のエンドツーエンドトレーニングにより, 既存の変形可能なモデルと比較して, 様々な3次元形状データセットの最先端結果が得られることがわかった。
関連論文リスト
- Category-level Object Detection, Pose Estimation and Reconstruction from Stereo Images [15.921719523588996]
既存の単分子法とRGB-D法は、欠落や深さの測定によるスケールの曖昧さに悩まされている。
本稿では,カテゴリーレベルの物体検出のための一段階的アプローチであるCoDERSを提案する。
私たちのデータセット、コード、デモはプロジェクトのページで公開されます。
論文 参考訳(メタデータ) (2024-07-09T15:59:03Z) - ComboVerse: Compositional 3D Assets Creation Using Spatially-Aware Diffusion Guidance [76.7746870349809]
複雑な構成で高品質な3Dアセットを生成する3D生成フレームワークであるComboVerseについて,複数のモデルを組み合わせることを学習して紹介する。
提案手法は,標準スコア蒸留法と比較して,物体の空間的アライメントを重視している。
論文 参考訳(メタデータ) (2024-03-19T03:39:43Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - DFC: Deep Feature Consistency for Robust Point Cloud Registration [0.4724825031148411]
複雑なアライメントシーンのための学習に基づくアライメントネットワークを提案する。
我々は,3DMatchデータセットとKITTIオドメトリデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-11-15T08:27:21Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - Learning Compositional Shape Priors for Few-Shot 3D Reconstruction [36.40776735291117]
複雑なエンコーダ・デコーダアーキテクチャが,カテゴリごとの大量のデータを利用することを示す。
データから直接クラス固有のグローバルな形状を学習する3つの方法を提案する。
人気のShapeNetデータセットの実験から,本手法はゼロショットベースラインを40%以上上回る性能を示した。
論文 参考訳(メタデータ) (2021-06-11T14:55:49Z) - M3DeTR: Multi-representation, Multi-scale, Mutual-relation 3D Object
Detection with Transformers [78.48081972698888]
M3DeTRは、マルチスケールのフィーチャーピラミッドに基づいて、異なるポイントクラウド表現と異なる機能スケールを組み合わせたものです。
M3DeTRは、複数のポイントクラウド表現、機能スケール、およびトランスを使用してポイントクラウド間の相互関係を同時にモデル化する最初のアプローチです。
論文 参考訳(メタデータ) (2021-04-24T06:48:23Z) - A Convolutional Architecture for 3D Model Embedding [1.3858051019755282]
入力として3Dモデルを扱うディープラーニングアーキテクチャを提案する。
埋め込み表現は3Dオブジェクトの類似性評価を扱うのに役立つセマンティック情報を伝えることを示した。
論文 参考訳(メタデータ) (2021-03-05T15:46:47Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Info3D: Representation Learning on 3D Objects using Mutual Information
Maximization and Contrastive Learning [8.448611728105513]
本稿では,3次元形状に関するInfoMaxと対照的な学習原理を拡張することを提案する。
我々は3Dオブジェクトとその「チャンク」間の相互情報を最大化して、整列したデータセットにおける表現を改善することができることを示す。
論文 参考訳(メタデータ) (2020-06-04T00:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。