論文の概要: Image Valuation in NeRF-based 3D reconstruction
- arxiv url: http://arxiv.org/abs/2511.23052v1
- Date: Fri, 28 Nov 2025 10:23:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.85682
- Title: Image Valuation in NeRF-based 3D reconstruction
- Title(参考訳): NeRFを用いた3次元再構成における画像評価
- Authors: Grigorios Aris Cheimariotis, Antonis Karakottas, Vangelis Chatzis, Angelos Kanlis, Dimitrios Zarpalas,
- Abstract要約: 3次元シーン再構成では、全ての入力が最終的な出力に等しく寄与するわけではない。
NeRFは、画像の集合が与えられた体積放射場を最適化することにより、シーンの3次元再構成を可能にする。
In-the-wild画像集合のNeRFに基づく再構成に対して,各画像の個々のコントリビューションを定量化する手法を提案する。
- 参考スコア(独自算出の注目度): 2.161889957040211
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data valuation and monetization are becoming increasingly important across domains such as eXtended Reality (XR) and digital media. In the context of 3D scene reconstruction from a set of images -- whether casually or professionally captured -- not all inputs contribute equally to the final output. Neural Radiance Fields (NeRFs) enable photorealistic 3D reconstruction of scenes by optimizing a volumetric radiance field given a set of images. However, in-the-wild scenes often include image captures of varying quality, occlusions, and transient objects, resulting in uneven utility across inputs. In this paper we propose a method to quantify the individual contribution of each image to NeRF-based reconstructions of in-the-wild image sets. Contribution is assessed through reconstruction quality metrics based on PSNR and MSE. We validate our approach by removing low-contributing images during training and measuring the resulting impact on reconstruction fidelity.
- Abstract(参考訳): データバリュエーションと収益化は、eXtended Reality(XR)やデジタルメディアといった領域でますます重要になっている。
画像の集合(カジュアルかプロかに関わらず)からの3Dシーンの再構築という文脈では、すべての入力が最終的な出力に等しく寄与するわけではない。
ニューラル・レージアンス・フィールド(NeRF)は、一組の画像を与えられたボリューム・レージアンス・フィールドを最適化することにより、シーンの光リアルな3次元再構成を可能にする。
しかし、野生のシーンには、様々な品質、オクルージョン、過渡的なオブジェクトのイメージキャプチャが含まれており、その結果、入力間で不均一な有用性をもたらす。
本論文では,NeRFによる画像集合の再構成に対する各画像の個々の寄与を定量化する手法を提案する。
コントリビューションは,PSNRとMSEに基づく再現品質指標を用いて評価される。
トレーニング中に低コントリビュート画像を取り除き,その結果の再現性への影響を計測し,本手法の有効性を検証した。
関連論文リスト
- Uncertainty-Aware Diffusion Guided Refinement of 3D Scenes [39.44244142263019]
1枚の画像から3Dシーンを再構築することは、問題の本質が過小評価されているため、基本的に不適切な作業である。
本研究では,既存の画像から3D画像へのフィードフォワードネットワークにおいて,これらの制約に対処する。
入力画像の視界を超えた情報不足による性能低下を軽減するため、事前学習された潜伏映像拡散モデルを用いて、強い生成前を活用できる。
論文 参考訳(メタデータ) (2025-03-19T23:14:27Z) - Towards Degradation-Robust Reconstruction in Generalizable NeRF [58.33351079982745]
GNeRF(Generalizable Radiance Field)は,シーンごとの最適化を回避する手段として有効であることが証明されている。
GNeRFの強靭性は, ソース画像に現れる様々な種類の劣化に対して限定的に研究されている。
論文 参考訳(メタデータ) (2024-11-18T16:13:47Z) - MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - Evaluating geometric accuracy of NeRF reconstructions compared to SLAM method [0.0]
フォトグラメトリーは画像ベースの3D再構成を行うことができるが、計算コストが高く、複雑な幾何学やフォトリアリズムを復元するために非常に高密度な画像表現を必要とする。
NeRFは、スパース画像上でニューラルネットワークをトレーニングし、データをポーズすることで3Dシーン再構築を行い、少ない入力データでフォトグラム測定に優れた結果が得られる。
縦型PVCシリンダの直径を推定するための2つのNeRFシーン再構成の評価を行った。
論文 参考訳(メタデータ) (2024-07-15T21:04:11Z) - RaFE: Generative Radiance Fields Restoration [38.602849644666165]
NeRF(Neural Radiance Fields)は、新しいビュー合成と3次元再構成において大きな可能性を証明している。
従来のNeRF修復法は、回復の一般性を無視して、特定の劣化タイプに合わせて調整されている。
本稿では,様々な種類の劣化に対して適用可能な一般放射場復元パイプラインであるRaFEを提案する。
論文 参考訳(メタデータ) (2024-04-04T17:59:50Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。