論文の概要: A Convolutional Architecture for 3D Model Embedding
- arxiv url: http://arxiv.org/abs/2103.03764v1
- Date: Fri, 5 Mar 2021 15:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 07:00:13.970817
- Title: A Convolutional Architecture for 3D Model Embedding
- Title(参考訳): 3次元モデル埋め込みのための畳み込みアーキテクチャ
- Authors: Arniel Labrada, Benjamin Bustos, Ivan Sipiran
- Abstract要約: 入力として3Dモデルを扱うディープラーニングアーキテクチャを提案する。
埋め込み表現は3Dオブジェクトの類似性評価を扱うのに役立つセマンティック情報を伝えることを示した。
- 参考スコア(独自算出の注目度): 1.3858051019755282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During the last years, many advances have been made in tasks like3D model
retrieval, 3D model classification, and 3D model segmentation.The typical 3D
representations such as point clouds, voxels, and poly-gon meshes are mostly
suitable for rendering purposes, while their use forcognitive processes
(retrieval, classification, segmentation) is limited dueto their high
redundancy and complexity. We propose a deep learningarchitecture to handle 3D
models as an input. We combine this architec-ture with other standard
architectures like Convolutional Neural Networksand autoencoders for computing
3D model embeddings. Our goal is torepresent a 3D model as a vector with enough
information to substitutethe 3D model for high-level tasks. Since this vector
is a learned repre-sentation which tries to capture the relevant information of
a 3D model,we show that the embedding representation conveys semantic
informationthat helps to deal with the similarity assessment of 3D objects. Our
ex-periments show the benefit of computing the embeddings of a 3D modeldata set
and use them for effective 3D Model Retrieval.
- Abstract(参考訳): 近年,3dモデル検索,3dモデル分類,3dモデルセグメンテーションなどのタスクにおいて,ポイントクラウドやボクセル,多角形メッシュなどの典型的な3d表現はレンダリング目的に適しているが,認知的プロセス(再評価,分類,セグメンテーション)の使用は冗長性や複雑性が高いため制限されている。
3Dモデルをインプットとして扱うディープラーニングアーキテクチャを提案します。
この階層構造を畳み込みニューラルネットワークや3dモデル埋め込み計算のためのオートエンコーダといった他の標準アーキテクチャと組み合わせる。
我々のゴールは、高レベルなタスクに3Dモデルを置き換えるのに十分な情報を持つベクトルとして3Dモデルを表現することである。
このベクトルは3dモデルの関連情報をキャプチャしようとする学習された再現であり、埋め込み表現が3dオブジェクトの類似性評価を扱うのに役立つ意味情報を伝達することを示す。
我々の経験は、3次元モデルデータセットの埋め込みを計算し、効果的な3次元モデル検索に利用することの利点を示している。
関連論文リスト
- PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Uni3D: Exploring Unified 3D Representation at Scale [66.26710717073372]
大規模に統一された3次元表現を探索する3次元基礎モデルであるUni3Dを提案する。
Uni3Dは、事前にトレーニングされた2D ViTのエンドツーエンドを使用して、3Dポイントクラウド機能と画像テキスト整列機能とを一致させる。
強力なUni3D表現は、野生での3D絵画や検索などの応用を可能にする。
論文 参考訳(メタデータ) (2023-10-10T16:49:21Z) - Large-Vocabulary 3D Diffusion Model with Transformer [57.076986347047]
本稿では,1つの生成モデルを用いて実世界の3Dオブジェクトの大規模カテゴリを合成するための拡散型フィードフォワードフレームワークを提案する。
本稿では,三面体を用いた3次元拡散モデル(TransFormer, DiffTF)を提案する。
ShapeNetとOmniObject3Dの実験は、単一のDiffTFモデルが最先端の大語彙3Dオブジェクト生成性能を達成することを確実に実証している。
論文 参考訳(メタデータ) (2023-09-14T17:59:53Z) - Lift3D: Synthesize 3D Training Data by Lifting 2D GAN to 3D Generative
Radiance Field [16.15190186574068]
データ生成の目的を達成するために,逆2D-to-3D生成フレームワークであるLift3Dを提案する。
2D GANを3DオブジェクトNeRFに持ち上げることで、Lift3Dは生成されたオブジェクトの明示的な3D情報を提供する。
我々は、自律運転データセットを増強することで、我々のフレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2023-04-07T07:43:02Z) - Learning Feature Aggregation for Deep 3D Morphable Models [57.1266963015401]
階層レベルで機能集約を向上するためのマッピング行列を学習するための注意に基づくモジュールを提案する。
実験の結果,マッピング行列のエンドツーエンドトレーニングにより,様々な3次元形状データセットの最先端結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-05-05T16:41:00Z) - Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis [143.22192229456306]
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
論文 参考訳(メタデータ) (2020-12-25T06:09:36Z) - Building 3D Morphable Models from a Single Scan [3.472931603805115]
本研究では,単一の3次元メッシュから3次元オブジェクトの生成モデルを構築する手法を提案する。
本手法はガウス過程で形状とアルベドを表す3次元形状モデルを生成する。
提案手法は, 単一の3次元スキャンのみを用いて顔認識を行うことができることを示す。
論文 参考訳(メタデータ) (2020-11-24T23:08:14Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。