論文の概要: Fast and Uncertainty-Aware SVBRDF Recovery from Multi-View Capture using Frequency Domain Analysis
- arxiv url: http://arxiv.org/abs/2406.17774v1
- Date: Tue, 25 Jun 2024 17:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 13:21:40.351393
- Title: Fast and Uncertainty-Aware SVBRDF Recovery from Multi-View Capture using Frequency Domain Analysis
- Title(参考訳): 周波数領域解析を用いたマルチビューキャプチャーからの高速かつ不確実なSVBRDF回収
- Authors: Ruben Wiersma, Julien Philip, Miloš Hašan, Krishna Mullia, Fujun Luan, Elmar Eisemann, Valentin Deschaintre,
- Abstract要約: 本稿では,信号処理の観点からの取得プロセスについて考察する。
物体表面の材料特性を数秒で推定する。
次に、利用可能なデータに基づいて、推定の不確かさを定量化し、事前または追加サンプルが必要な領域を強調します。
- 参考スコア(独自算出の注目度): 12.545497174010528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relightable object acquisition is a key challenge in simplifying digital asset creation. Complete reconstruction of an object typically requires capturing hundreds to thousands of photographs under controlled illumination, with specialized equipment. The recent progress in differentiable rendering improved the quality and accessibility of inverse rendering optimization. Nevertheless, under uncontrolled illumination and unstructured viewpoints, there is no guarantee that the observations contain enough information to reconstruct the appearance properties of the captured object. We thus propose to consider the acquisition process from a signal-processing perspective. Given an object's geometry and a lighting environment, we estimate the properties of the materials on the object's surface in seconds. We do so by leveraging frequency domain analysis, considering the recovery of material properties as a deconvolution, enabling fast error estimation. We then quantify the uncertainty of the estimation, based on the available data, highlighting the areas for which priors or additional samples would be required for improved acquisition quality. We compare our approach to previous work and quantitatively evaluate our results, showing similar quality as previous work in a fraction of the time, and providing key information about the certainty of the results.
- Abstract(参考訳): デジタルアセット作成を簡素化する上で、リライタブルなオブジェクト取得は重要な課題である。
オブジェクトの完全な再構築には、制御された照明の下で数百から数千枚の写真を取得する必要がある。
微分可能レンダリングの最近の進歩は、逆レンダリング最適化の品質とアクセシビリティを改善した。
それでも、制御されていない照明と非構造的な視点の下では、捕獲された物体の外観特性を再構築するのに十分な情報を含むという保証はない。
そこで我々は,信号処理の観点から,取得プロセスについて考察する。
物体の形状と照明環境を考慮し,物体表面の物質の性質を数秒で推定する。
周波数領域解析を利用して、材料特性の回復をデコンボリューションとして考慮し、高速な誤差推定を可能にする。
次に、利用可能なデータに基づいて、予測の不確実性を定量化し、取得品質を向上させるために、事前または追加サンプルが要求される領域を強調します。
提案手法を先行研究と比較し,その結果を定量的に評価し,結果の確実性について重要な情報を提供する。
関連論文リスト
- KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Objects With Lighting: A Real-World Dataset for Evaluating Reconstruction and Rendering for Object Relighting [16.938779241290735]
写真からオブジェクトを再構成し、仮想的に新しい環境に配置することは、標準的な新しいビュー合成タスクを超えます。
この研究は、リライトのためのオブジェクトの再構築とレンダリングを測定するための実世界のデータセットを提供する。
論文 参考訳(メタデータ) (2024-01-17T11:02:52Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - NeROIC: Neural Rendering of Objects from Online Image Collections [42.02832046768925]
本稿では,オンライン画像コレクションからオブジェクト表現を取得し,任意のオブジェクトの高品質な形状と材料特性をキャプチャする手法を提案する。
これにより、新規ビュー合成、リライト、調和した背景合成など、さまざまなオブジェクト中心のレンダリングアプリケーションが可能になる。
論文 参考訳(メタデータ) (2022-01-07T16:45:15Z) - RestoreDet: Degradation Equivariant Representation for Object Detection
in Low Resolution Images [81.91416537019835]
劣化した低解像度画像中のオブジェクトを検出するための新しいフレームワークであるRestoreDetを提案する。
CenterNetをベースとした本フレームワークは, 既存手法と比較して, 異種劣化状況に直面する場合に比べ, 優れた性能を達成している。
論文 参考訳(メタデータ) (2022-01-07T03:40:23Z) - NOD: Taking a Closer Look at Detection under Extreme Low-Light
Conditions with Night Object Detection Dataset [25.29013780731876]
低い光は、以前考えられていたよりもマシン認知にとって困難である。
夜間に街路で撮影されたダイナミックなシーンを示す大規模なデータセットを提示する。
本稿では,画像強調モジュールをオブジェクト検出フレームワークと2つの新しいデータ拡張手法に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-20T03:44:04Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - Object-QA: Towards High Reliable Object Quality Assessment [71.71188284059203]
オブジェクト認識アプリケーションでは、オブジェクトイメージは通常、異なる品質レベルで表示される。
本稿では,オブジェクト画像の信頼性の高い品質スコアを評価するために,Object-QAという効果的手法を提案する。
論文 参考訳(メタデータ) (2020-05-27T01:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。