論文の概要: DiFT: Differentiable Differential Feature Transform for Multi-View
Stereo
- arxiv url: http://arxiv.org/abs/2203.08435v1
- Date: Wed, 16 Mar 2022 07:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 14:47:30.741947
- Title: DiFT: Differentiable Differential Feature Transform for Multi-View
Stereo
- Title(参考訳): DiFT:マルチビューステレオのための微分可能特徴変換
- Authors: Kaizhang Kang, Chong Zeng, Hongzhi Wu, and Kun Zhou
- Abstract要約: 我々は、回転運動で密にキャプチャされた画像のスタックから、各ビューで空間的に識別され、図形ごとに不変な画像へと、微分キューを変換することを学ぶ。
これらの低レベル機能は、既存のマルチビューステレオ技術に直接供給し、拡張された3D再構成を行うことができる。
- 参考スコア(独自算出の注目度): 16.47413993267985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel framework to automatically learn to transform the
differential cues from a stack of images densely captured with a rotational
motion into spatially discriminative and view-invariant per-pixel features at
each view. These low-level features can be directly fed to any existing
multi-view stereo technique for enhanced 3D reconstruction. The lighting
condition during acquisition can also be jointly optimized in a differentiable
fashion. We sample from a dozen of pre-scanned objects with a wide variety of
geometry and reflectance to synthesize a large amount of high-quality training
data. The effectiveness of our features is demonstrated on a number of
challenging objects acquired with a lightstage, comparing favorably with
state-of-the-art techniques. Finally, we explore additional applications of
geometric detail visualization and computational stylization of complex
appearance.
- Abstract(参考訳): 回転運動で高密度に撮影された画像のスタックから、各ビューにおける空間的判別およびビュー不変なピクセル単位の特徴へと、微分手がかりを自動的に学習する新しい枠組みを提案する。
これらの低レベル機能は、既存のマルチビューステレオ技術に直接供給して3D再構成を拡張できる。
取得時の照明条件は、相違可能な方法で共同最適化することもできる。
我々は,多種多様な形状と反射率を持つ事前スキャンされた物体からサンプルを採取し,高品質なトレーニングデータを合成した。
本手法の有効性は,光ステージで取得した多数の挑戦対象に対して実証し,最先端技術と比較した。
最後に,幾何学的詳細可視化と複雑な外観の計算スタイライゼーションのさらなる応用について検討する。
関連論文リスト
- Learning Photometric Feature Transform for Free-form Object Scan [34.61673205691415]
本研究では,非構造化ビューから自動で測光データを収集・変換するフレームワークを提案する。
我々は手持ちスキャンから様々な挑戦対象の幾何学的および異方的反射を再構築するシステムを構築した。
結果はプロの3Dスキャナーと写真からの復元に対して検証され、最先端技術と好適に比較される。
論文 参考訳(メタデータ) (2023-08-07T11:34:27Z) - Multi-Spectral Image Stitching via Spatial Graph Reasoning [52.27796682972484]
空間グラフ推論に基づくマルチスペクトル画像縫合法を提案する。
同一のビュー位置から複数スケールの補完機能をノードに埋め込む。
空間的・チャネル的次元に沿った長距離コヒーレンスを導入することにより、画素関係の相補性とチャネル相互依存性は、整列したマルチビュー特徴の再構築に寄与する。
論文 参考訳(メタデータ) (2023-07-31T15:04:52Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Unifying Flow, Stereo and Depth Estimation [121.54066319299261]
本稿では3つの動作と3次元知覚タスクのための統一的な定式化とモデルを提案する。
これら3つのタスクを、統一された高密度対応マッチング問題として定式化する。
我々のモデルは、モデルアーキテクチャとパラメータがタスク間で共有されているため、自然にクロスタスク転送を可能にします。
論文 参考訳(メタデータ) (2022-11-10T18:59:54Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering [27.41344744849205]
従来のハンドヘルドカメラを用いた多視点写真からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
また,本手法は,新しい視点の視覚的合成と定量化において,最先端の代替手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-25T14:09:10Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Differentiable Stereopsis: Meshes from multiple views using
differentiable rendering [72.25348629612782]
少ない入力ビューとノイズの多いカメラから形状とテクスチャを再構成する多視点ステレオ手法である微分ステレオシステムを提案する。
従来のステレオプシスと現代的な微分可能レンダリングを組み合わせて、さまざまなトポロジと形状を持つオブジェクトのテクスチャ化された3Dメッシュを予測するエンドツーエンドモデルを構築します。
論文 参考訳(メタデータ) (2021-10-11T17:59:40Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Learning Efficient Photometric Feature Transform for Multi-view Stereo [37.26574529243778]
各ビューのperpixelフォトメトリック情報を,空間的特徴とビュー不変の低レベル特徴に変換することを学ぶ。
本フレームワークは,様々な入力データで利用可能な幾何学情報を自動的に適用し,効率的な利用を行う。
論文 参考訳(メタデータ) (2021-03-27T02:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。