論文の概要: Input-level Inductive Biases for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2112.03243v1
- Date: Mon, 6 Dec 2021 18:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:09:10.980970
- Title: Input-level Inductive Biases for 3D Reconstruction
- Title(参考訳): 3次元再構成のための入力レベルインダクティブバイアス
- Authors: Wang Yifan, Carl Doersch, Relja Arandjelovi\'c, Jo\~ao Carreira,
Andrew Zisserman
- Abstract要約: 一般認識モデルであるPerceiver IOを用いて3次元再構成を行った。
モデルはクエリマトリックスを使用して問合せされ、クエリ毎に出力を生成する。
本稿では,入力画像対のすべての画素に対する出力値について述べる。
- 参考スコア(独自算出の注目度): 88.5073749335147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore 3D reconstruction using a generalist perception model, the recent
Perceiver IO which ingests a matrix of unordered and flattened inputs (e.g.
pixels). The model is interrogated using a query matrix and generates an output
for every query -- in this paper the outputs are depth values for all pixels of
the input image pair. We incorporate inductive biases useful for multiple view
geometry into this generalist model without having to touch its architecture,
by instead encoding them directly as additional inputs.
- Abstract(参考訳): 一般認識モデルであるPerceiver IOを用いて3次元再構成を探索し,非順序入力と平坦入力の行列(ピクセルなど)を取り込みます。
このモデルはクエリ行列を用いて問合せされ、クエリ毎に出力を生成する。この論文では、出力は入力画像対のすべてのピクセルの深さ値である。
複数のビュー幾何学に有用な帰納的バイアスを、アーキテクチャに触れることなく、直接入力としてエンコードすることで、この一般化モデルに組み込む。
関連論文リスト
- LVSM: A Large View Synthesis Model with Minimal 3D Inductive Bias [50.13457154615262]
スパースビュー入力からのスケーラブルで一般化可能な新規ビュー合成のためのトランスフォーマーに基づくアプローチを提案する。
本稿では,(1)入力画像トークンを1次元遅延トークンにエンコードするエンコーダデコーダLVSM,(2)入力画像を直接新規ビュー出力にマッピングするデコーダのみLVSMの2つのアーキテクチャを紹介する。
論文 参考訳(メタデータ) (2024-10-22T17:58:28Z) - UniG: Modelling Unitary 3D Gaussians for View-consistent 3D Reconstruction [20.089890859122168]
ビュー一貫性を持つ3次元再構成と新しいビュー合成モデルUniGを提案する。
UniGはスパース画像から3Dガウスの高忠実度表現を生成する。
論文 参考訳(メタデータ) (2024-10-17T03:48:02Z) - Self-augmented Gaussian Splatting with Structure-aware Masks for Sparse-view 3D Reconstruction [9.953394373473621]
スパースビュー3D再構成は、コンピュータビジョンにおいて非常に難しい課題である。
本稿では,構造対応マスクにより拡張された自己拡張型粗大なガウススプラッティングパラダイムを提案する。
本手法は,知覚的品質と効率の両面において,スパース入力ビューの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-09T03:09:22Z) - PlankAssembly: Robust 3D Reconstruction from Three Orthographic Views
with Learnt Shape Programs [24.09764733540401]
本研究では、3つの正書法からの2次元線図を3次元CADモデルに自動変換する手法を開発した。
我々はトランスフォーマーに基づくシーケンス生成モデルにおける注意機構を利用して、入力と出力の間の柔軟なマッピングを学習する。
提案手法は,入力がノイズや不完全である場合,既存の手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2023-08-10T17:59:34Z) - Pixel2ISDF: Implicit Signed Distance Fields based Human Body Model from
Multi-view and Multi-pose Images [67.45882013828256]
我々は,複数の視点と人間のポーズを入力として,標準空間における衣服付き人間の再構築に焦点をあてる。
複数の入力画像を活用することで、ポーズメッシュ上の潜時符号を学習し、その後、標準空間内のメッシュに潜時符号を割り当てる。
本研究は,WCPA MVP-Human Body Challengeにおいて,人体形状を復元する作業を行い,第3の成果を得た。
論文 参考訳(メタデータ) (2022-12-06T05:30:49Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Hybrid Approach for 3D Head Reconstruction: Using Neural Networks and
Visual Geometry [3.970492757288025]
本稿では,深層学習と幾何学的手法に基づくハイブリッド手法を用いて,複数の画像から3次元頭部を再構築する手法を提案する。
U-netアーキテクチャに基づくエンコーダデコーダネットワークを提案し、合成データのみを学習する。
論文 参考訳(メタデータ) (2021-04-28T11:31:35Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。