論文の概要: DeepSurfels: Learning Online Appearance Fusion
- arxiv url: http://arxiv.org/abs/2012.14240v1
- Date: Mon, 28 Dec 2020 14:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 11:01:54.637166
- Title: DeepSurfels: Learning Online Appearance Fusion
- Title(参考訳): DeepSurfels: オンライン外観融合を学ぶ
- Authors: Marko Mihajlovic, Silvan Weder, Marc Pollefeys, Martin R. Oswald
- Abstract要約: DeepSurfelsは、ジオメトリと外観情報のための新しいハイブリッドシーン表現です。
確立された表現とは対照的に、DeepSurfelsは高周波テクスチャをよりよく表現する。
私たちはエンドツーエンドのトレーニング可能なオンライン外観融合パイプラインを提示します。
- 参考スコア(独自算出の注目度): 77.59420353185355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DeepSurfels, a novel hybrid scene representation for geometry and
appearance information. DeepSurfels combines explicit and neural building
blocks to jointly encode geometry and appearance information. In contrast to
established representations, DeepSurfels better represents high-frequency
textures, is well-suited for online updates of appearance information, and can
be easily combined with machine learning methods. We further present an
end-to-end trainable online appearance fusion pipeline that fuses information
provided by RGB images into the proposed scene representation and is trained
using self-supervision imposed by the reprojection error with respect to the
input images. Our method compares favorably to classical texture mapping
approaches as well as recently proposed learning-based techniques. Moreover, we
demonstrate lower runtime, improved generalization capabilities, and better
scalability to larger scenes compared to existing methods.
- Abstract(参考訳): 幾何情報と外観情報のための新しいハイブリッドシーン表現であるdeepsurfelsを提案する。
DeepSurfelsは、明示的およびニューラルなビルディングブロックを組み合わせて、幾何学と外観情報を共同でエンコードする。
確立された表現とは対照的に、DeepSurfelsは高周波テクスチャをよりよく表現し、外観情報のオンライン更新に適しており、機械学習手法と簡単に組み合わせることができる。
さらに,提案するシーン表現にrgb画像が提供する情報を融合し,入力画像に対して再投影誤差によって課される自己スーパービジョンを用いて訓練する,エンドツーエンドのトレーニング可能なオンライン外観融合パイプラインを提案する。
提案手法は,従来のテクスチャマッピング手法や最近提案された学習手法とよく比較できる。
さらに,ランタイムの低下,一般化能力の向上,既存手法と比較して拡張性の向上が図られている。
関連論文リスト
- Fine-Grained Multi-View Hand Reconstruction Using Inverse Rendering [11.228453237603834]
本稿では,逆レンダリングを利用して手ポーズを復元し,詳細を複雑化する多視点ハンドメッシュ再構成手法を提案する。
また、ハンドメッシュとテクスチャの両方を洗練させるために、新しいハンドアルベドとメッシュ(HAM)最適化モジュールも導入した。
提案手法は,再現精度とレンダリング品質の両面において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-08T07:28:24Z) - HR Human: Modeling Human Avatars with Triangular Mesh and High-Resolution Textures from Videos [52.23323966700072]
本研究では,モノクロ映像から高精細な物理材料テクスチャとメッシュを付加したアバターの取得のための枠組みを提案する。
本手法では,モノクロ映像からの情報を組み合わせて仮想多視点画像の合成を行う新しい情報融合方式を提案する。
実験により, 提案手法は, 高忠実度で従来の表現よりも優れており, この明示的な結果は共通三角形への展開をサポートすることが示された。
論文 参考訳(メタデータ) (2024-05-18T11:49:09Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - HelixSurf: A Robust and Efficient Neural Implicit Surface Learning of
Indoor Scenes with Iterative Intertwined Regularization [41.2417324078429]
Helix-shaped Neural implicit Surface Learning (HelixSurf) と呼ばれる手法を提案する。
HelixSurfは、一方の戦略からの中間予測を、もう一方の戦略の学習を規則化するガイダンスとして使用する。
室内シーンの表面再構成実験により,本手法が既存手法と良好に比較できることが判明した。
論文 参考訳(メタデータ) (2023-02-28T06:20:07Z) - Efficient Textured Mesh Recovery from Multiple Views with Differentiable
Rendering [8.264851594332677]
マルチビュー画像からテクスチャメッシュを復元する手法を提案する。
学習ベース多視点ステレオアルゴリズムにより予測される深度との差を最小化することにより形状形状を最適化する。
形状や色に対する暗黙的なニューラル表現とは対照的に,物体の光と反射を共同で推定する物理ベース逆レンダリング方式を導入する。
論文 参考訳(メタデータ) (2022-05-25T03:33:55Z) - Pan-sharpening via High-pass Modification Convolutional Neural Network [39.295436779920465]
本稿では,ハイパス修正ブロックに基づく新しいパンシャーピング畳み込みニューラルネットワークを提案する。
提案するブロックは、高域情報を学習し、マルチスペクトル画像の各帯域における空間情報を強化する。
実験により,提案手法の性能を最先端のパンシャーピング法と比較した。
論文 参考訳(メタデータ) (2021-05-24T23:39:04Z) - Neural RGB-D Surface Reconstruction [15.438678277705424]
神経放射場を学習する手法は驚くべき画像合成結果を示しているが、基礎となる幾何学表現は実際の幾何学の粗い近似にすぎない。
本研究では, より詳細な再現結果を得るために, 深度測定を放射場定式化に組み込む方法を示す。
論文 参考訳(メタデータ) (2021-04-09T18:00:01Z) - NeuralFusion: Online Depth Fusion in Latent Space [77.59420353185355]
潜在特徴空間における深度マップアグリゲーションを学習する新しいオンライン深度マップ融合手法を提案する。
提案手法は,高騒音レベルを処理し,特に測光ステレオベース深度マップに共通する粗悪なアウトレージに対処できる。
論文 参考訳(メタデータ) (2020-11-30T13:50:59Z) - RoutedFusion: Learning Real-time Depth Map Fusion [73.0378509030908]
深度マップ融合のための新しいリアルタイム能動機械学習手法を提案する。
本稿では,通常の核融合エラーを考慮に入れた非線形更新を予測できるニューラルネットワークを提案する。
本ネットワークは2次元深度ルーティングネットワークと3次元深度融合ネットワークから構成されており,センサ固有のノイズや外れ値の処理を効率的に行う。
論文 参考訳(メタデータ) (2020-01-13T16:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。