論文の概要: Learning to Correct 3D Reconstructions from Multiple Views
- arxiv url: http://arxiv.org/abs/2001.08098v1
- Date: Wed, 22 Jan 2020 16:02:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:58:54.473737
- Title: Learning to Correct 3D Reconstructions from Multiple Views
- Title(参考訳): 複数視点からの3次元再構成の学習
- Authors: \c{S}tefan S\u{a}ftescu and Paul Newman
- Abstract要約: 既存の再構築の2Dビューを描画し、高品質な再構築に対応するために逆深度を洗練する畳み込みニューラルネットワークを訓練する。
私たちが修正したビューは同じ再構築からレンダリングされるため、同じジオメトリを共有するため、重複するビューが相互に補完する。
ビュー間の相対的なポーズから多層パーセプトロンによって生成される動的フィルタを用いて特徴を変換する手法を提案する。
- 参考スコア(独自算出の注目度): 20.315829094519128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is about reducing the cost of building good large-scale 3D
reconstructions post-hoc. We render 2D views of an existing reconstruction and
train a convolutional neural network (CNN) that refines inverse-depth to match
a higher-quality reconstruction. Since the views that we correct are rendered
from the same reconstruction, they share the same geometry, so overlapping
views complement each other. We take advantage of that in two ways. Firstly, we
impose a loss during training which guides predictions on neighbouring views to
have the same geometry and has been shown to improve performance. Secondly, in
contrast to previous work, which corrects each view independently, we also make
predictions on sets of neighbouring views jointly. This is achieved by warping
feature maps between views and thus bypassing memory-intensive 3D computation.
We make the observation that features in the feature maps are
viewpoint-dependent, and propose a method for transforming features with
dynamic filters generated by a multi-layer perceptron from the relative poses
between views. In our experiments we show that this last step is necessary for
successfully fusing feature maps between views.
- Abstract(参考訳): 本論文は, 大規模3次元再構築におけるコスト削減について述べる。
既存の再構築の2Dビューを描画し、高品質な再構築に対応するために逆深度を洗練する畳み込みニューラルネットワーク(CNN)を訓練する。
私たちが修正したビューは同じ再構築からレンダリングされるため、同じジオメトリを共有するため、重複するビューが相互に補完する。
私たちはそれを二つの方法で活用する。
第一に, 学習中に損失を課し, 隣り合う視点の予測を同一の形状に誘導し, 性能を向上させることが示されている。
第2に,各視点を独立に修正する先行研究とは対照的に,隣接視点の集合を共同で予測する。
これはビュー間のフィーチャーマップをワープし、メモリ集約型3D計算をバイパスすることで実現される。
本稿では,特徴マップの特徴が視点依存であることを観察し,ビュー間の相対的なポーズから多層パーセプトロンが生成する動的フィルタを用いて特徴を変換する方法を提案する。
私たちの実験では、ビュー間のフィーチャーマップをうまく融合させるには、この最後のステップが必要です。
関連論文リスト
- Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Fine Detailed Texture Learning for 3D Meshes with Generative Models [33.42114674602613]
本稿では,多視点画像と単視点画像の両方から高品質なテクスチャ3Dモデルを再構成する手法を提案する。
第1段階では正確な幾何学を学ぶことに集中し、第2段階では、生成的対向ネットワークを用いてテクスチャを学ぶことに集中する。
本手法は従来の手法に比べて優れた3次元テクスチャモデルを実現することを実証する。
論文 参考訳(メタデータ) (2022-03-17T14:50:52Z) - Improving neural implicit surfaces geometry with patch warping [12.106051690920266]
これはニューラルネットワークによる高周波テクスチャの学習と描画が難しいことによるものだ、と私たちは主張する。
我々は、異なる視点で直接光一貫性項を標準のニューラルレンダリング最適化に追加することを提案する。
我々は、標準的なDTUおよびEPFLベンチマークでNeuralWarpと呼ばれるアプローチを評価し、両方のデータセットにおいて、教師なしの暗黙的表面再構成の状態を20%以上向上させることを示す。
論文 参考訳(メタデータ) (2021-12-17T17:43:50Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z) - A Divide et Impera Approach for 3D Shape Reconstruction from Multiple
Views [49.03830902235915]
物体の3次元形状を1つまたは複数の画像から推定することは、最近のディープラーニングによるブレークスルーによって人気を集めている。
本稿では,与えられた視点からの可視情報を統合することで,視点変化の再構築に頼ることを提案する。
提案手法を検証するために,相対的なポーズ推定と3次元形状再構成の観点から,ShapeNet参照ベンチマークの総合評価を行った。
論文 参考訳(メタデータ) (2020-11-17T09:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。