論文の概要: Consistent Mesh Colors for Multi-View Reconstructed 3D Scenes
- arxiv url: http://arxiv.org/abs/2101.10734v1
- Date: Tue, 26 Jan 2021 11:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:53:52.041656
- Title: Consistent Mesh Colors for Multi-View Reconstructed 3D Scenes
- Title(参考訳): マルチビュー再構成3次元シーンのための一貫性メッシュカラー
- Authors: Mohamed Dahy Elkhouly, Alessio Del Bue, Stuart James
- Abstract要約: カラーキャリブレーションなしで一貫したテクスチャマップを作成するためには,複数のビューを集約する手法が不可欠であることがわかった。
ビュー面とフェースビューの相互相関から事前に色を計算し、最適なパーフェースカラーを特定します。
- 参考スコア(独自算出の注目度): 13.531166759820854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the issue of creating consistent mesh texture maps captured from
scenes without color calibration. We find that the method for aggregation of
the multiple views is crucial for creating spatially consistent meshes without
the need to explicitly optimize for spatial consistency. We compute a color
prior from the cross-correlation of observable view faces and the faces per
view to identify an optimal per-face color. We then use this color in a
re-weighting ratio for the best-view texture, which is identified by prior mesh
texturing work, to create a spatial consistent texture map. Despite our method
not explicitly handling spatial consistency, our results show qualitatively
more consistent results than other state-of-the-art techniques while being
computationally more efficient. We evaluate on prior datasets and additionally
Matterport3D showing qualitative improvements.
- Abstract(参考訳): カラーキャリブレーションなしでシーンから取得した一貫したメッシュテクスチャマップを作成するという課題に対処する。
複数のビューを集約する手法は、空間的一貫性を明示的に最適化することなく、空間的に一貫したメッシュを作成するのに不可欠である。
可観測面と可観測面の対比相関より先に色を算出し、最適な対面色を同定します。
次に,従来のメッシュテクスチャ作成作業で識別されたベストビューテクスチャに対して,この色を再重み付け比として使用し,空間的に一貫したテクスチャマップを作成する。
提案手法は空間的一貫性を明示的に処理しないが,計算効率は高く,他の最先端技術よりも質的に一貫性のある結果を示す。
先行データセットとMatterport3Dで評価し、定性的な改善を示します。
関連論文リスト
- MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps [3.504542161036043]
単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題にのみ焦点をあてた既存の方法とは対照的に,本研究は合成性とタイル性の両方に同時に取り組む。
論文 参考訳(メタデータ) (2022-01-13T18:24:26Z) - Salient Object Detection by LTP Texture Characterization on Opposing
Color Pairs under SLICO Superpixel Constraint [10.228984414156931]
本稿では,自然画像に対するロバストなサリエンシマップを生成するシンプルなモデルを用いて,新しい戦略を提案する。
この戦略は、局所的なテクスチャパターンに色情報を統合することで、色のマイクロテクスチャを特徴付ける。
我々のモデルは単純かつ効率的であり、いくつかの最先端モデルより優れている。
論文 参考訳(メタデータ) (2022-01-03T00:03:50Z) - ContourRender: Detecting Arbitrary Contour Shape For Instance
Segmentation In One Pass [48.57232627854642]
一方のパスにおける輪郭点の回帰の難しさは、滑らかな輪郭をポリゴンに識別する際のあいまいさが主な原因である。
あいまいさに対処するために,textbfContourRender という新しい差別化可能なレンダリング方式を提案する。
まず、可逆形状シグネチャによって生成された輪郭を予測し、それから、より安定したシルエットで輪郭を最適化し、それを輪郭メッシュに変換してメッシュを2Dマップにレンダリングする。
論文 参考訳(メタデータ) (2021-06-07T07:23:03Z) - Real Time Incremental Foveal Texture Mapping for Autonomous Vehicles [11.702817783491616]
生成された詳細なマップは、さまざまなビジョンと計画アルゴリズムの仮想テストベッドとして機能します。
また、さまざまなビジョンおよび計画アルゴリズムの背景マップとしても機能します。
論文 参考訳(メタデータ) (2021-01-16T07:41:24Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z) - Efficient texture mapping via a non-iterative global texture alignment [0.0]
与えられた3次元シーンのシームレスなテクスチャ再構築のための非定位的手法を提案する。
本手法は,グローバルな最適化フレームワークを用いて,一つのショットで最高のテクスチャアライメントを見出す。
実験の結果、他のアライメント法と比較して計算複雑性と性能が低いことが示された。
論文 参考訳(メタデータ) (2020-11-02T10:24:19Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z) - Implicit Mesh Reconstruction from Unannotated Image Collections [48.85604987196472]
本稿では,1枚のRGB画像から3次元形状,テクスチャ,カメラのポーズを推定する手法を提案する。
この形状を画像条件付暗黙関数として表現し、球面を予測メッシュのそれに変換するとともに、対応するテクスチャを予測する。
論文 参考訳(メタデータ) (2020-07-16T17:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。