論文の概要: Consistent Mesh Colors for Multi-View Reconstructed 3D Scenes
- arxiv url: http://arxiv.org/abs/2101.10734v1
- Date: Tue, 26 Jan 2021 11:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:53:52.041656
- Title: Consistent Mesh Colors for Multi-View Reconstructed 3D Scenes
- Title(参考訳): マルチビュー再構成3次元シーンのための一貫性メッシュカラー
- Authors: Mohamed Dahy Elkhouly, Alessio Del Bue, Stuart James
- Abstract要約: カラーキャリブレーションなしで一貫したテクスチャマップを作成するためには,複数のビューを集約する手法が不可欠であることがわかった。
ビュー面とフェースビューの相互相関から事前に色を計算し、最適なパーフェースカラーを特定します。
- 参考スコア(独自算出の注目度): 13.531166759820854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the issue of creating consistent mesh texture maps captured from
scenes without color calibration. We find that the method for aggregation of
the multiple views is crucial for creating spatially consistent meshes without
the need to explicitly optimize for spatial consistency. We compute a color
prior from the cross-correlation of observable view faces and the faces per
view to identify an optimal per-face color. We then use this color in a
re-weighting ratio for the best-view texture, which is identified by prior mesh
texturing work, to create a spatial consistent texture map. Despite our method
not explicitly handling spatial consistency, our results show qualitatively
more consistent results than other state-of-the-art techniques while being
computationally more efficient. We evaluate on prior datasets and additionally
Matterport3D showing qualitative improvements.
- Abstract(参考訳): カラーキャリブレーションなしでシーンから取得した一貫したメッシュテクスチャマップを作成するという課題に対処する。
複数のビューを集約する手法は、空間的一貫性を明示的に最適化することなく、空間的に一貫したメッシュを作成するのに不可欠である。
可観測面と可観測面の対比相関より先に色を算出し、最適な対面色を同定します。
次に,従来のメッシュテクスチャ作成作業で識別されたベストビューテクスチャに対して,この色を再重み付け比として使用し,空間的に一貫したテクスチャマップを作成する。
提案手法は空間的一貫性を明示的に処理しないが,計算効率は高く,他の最先端技術よりも質的に一貫性のある結果を示す。
先行データセットとMatterport3Dで評価し、定性的な改善を示します。
関連論文リスト
- GenesisTex: Adapting Image Denoising Diffusion to Texture Space [15.907134430301133]
GenesisTexはテキスト記述から3次元幾何学のテクスチャを合成する新しい手法である。
我々は,各視点に対して潜在テクスチャマップを保持し,対応する視点の描画に予測ノイズを伴って更新する。
大域的整合性は、ノイズ予測ネットワーク内のスタイル整合性機構の統合によって達成される。
論文 参考訳(メタデータ) (2024-03-26T15:15:15Z) - Consistent Mesh Diffusion [8.318075237885857]
UVパラメータ化による3Dメッシュを前提として,テキストプロンプトからテクスチャを生成する新しいアプローチを提案する。
当社のアプローチは、30メッシュを含むデータセット上で、メッシュ毎に約5分を要することを実証しています。
論文 参考訳(メタデータ) (2023-12-01T23:25:14Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - Large-scale and Efficient Texture Mapping Algorithm via Loopy Belief
Propagation [4.742825811314168]
テクスチャマッピングアルゴリズムは、これらのビューからメッシュモデルへのビュー、ヒューズ、およびマップテクスチャを効率的に選択できなければならない。
既存のアプローチでは、画像の数を1つのビューに制限するか、グローバルな推論を単純化して局所的な色の一貫性を達成している。
本稿では,顔ごとのテクスチャの複数のビューを利用できる新しい,効率的なテクスチャマッピングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:11:28Z) - Explicit Correspondence Matching for Generalizable Neural Radiance
Fields [49.49773108695526]
本稿では,新たな未知のシナリオに一般化し,2つのソースビューで新規なビュー合成を行う新しいNeRF手法を提案する。
明瞭な対応マッチングは、異なるビュー上の3Dポイントの2次元投影でサンプリングされた画像特徴間のコサイン類似度と定量化される。
実験では,実験結果から得られたコサイン特徴の類似性と体積密度との間に強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-04-24T17:46:01Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - Efficient texture mapping via a non-iterative global texture alignment [0.0]
与えられた3次元シーンのシームレスなテクスチャ再構築のための非定位的手法を提案する。
本手法は,グローバルな最適化フレームワークを用いて,一つのショットで最高のテクスチャアライメントを見出す。
実験の結果、他のアライメント法と比較して計算複雑性と性能が低いことが示された。
論文 参考訳(メタデータ) (2020-11-02T10:24:19Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。