論文の概要: MLI-NeRF: Multi-Light Intrinsic-Aware Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2411.17235v1
- Date: Tue, 26 Nov 2024 08:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:35:02.427813
- Title: MLI-NeRF: Multi-Light Intrinsic-Aware Neural Radiance Fields
- Title(参考訳): MLI-NeRF:マルチライト固有のニューラルラジアンスフィールド
- Authors: Yixiong Yang, Shilin Hu, Haoyu Wu, Ramon Baldrich, Dimitris Samaras, Maria Vanrell,
- Abstract要約: 反射率やシェーディングなどの固有画像成分を抽出する現在の手法は、統計的先行性に依存している。
我々はtextbfIntrinsic-aware textbfNeural textbfRadiance textbfFields に textbfMultiple textbfLight 情報を統合する MLI-NeRF を提案する。
- 参考スコア(独自算出の注目度): 21.057216351934688
- License:
- Abstract: Current methods for extracting intrinsic image components, such as reflectance and shading, primarily rely on statistical priors. These methods focus mainly on simple synthetic scenes and isolated objects and struggle to perform well on challenging real-world data. To address this issue, we propose MLI-NeRF, which integrates \textbf{M}ultiple \textbf{L}ight information in \textbf{I}ntrinsic-aware \textbf{Ne}ural \textbf{R}adiance \textbf{F}ields. By leveraging scene information provided by different light source positions complementing the multi-view information, we generate pseudo-label images for reflectance and shading to guide intrinsic image decomposition without the need for ground truth data. Our method introduces straightforward supervision for intrinsic component separation and ensures robustness across diverse scene types. We validate our approach on both synthetic and real-world datasets, outperforming existing state-of-the-art methods. Additionally, we demonstrate its applicability to various image editing tasks. The code and data are publicly available.
- Abstract(参考訳): 反射率やシェーディングなどの固有画像成分を抽出する現在の手法は、主に統計的先行に頼っている。
これらの手法は主に単純な合成シーンと孤立したオブジェクトに焦点を合わせ、現実の挑戦的なデータにうまく取り組むのに苦労する。
この問題に対処するため、MLI-NeRF を提案し、これは \textbf{M}ultiple \textbf{L}ight 情報を \textbf{I}ntrinsic-aware \textbf{Ne}ural \textbf{R}adiance \textbf{F}ields に統合する。
多視点情報を補完する異なる光源位置によって提供されるシーン情報を活用することにより、反射・陰影のための擬似ラベル画像を生成し、地中真実データを必要とせずに本質的な画像分解を誘導する。
本手法は,固有成分分離の直接的監視を導入し,多様なシーンタイプにまたがるロバスト性を確保する。
我々は、既存の最先端手法よりも優れた合成データセットと実世界のデータセットの両方にアプローチを検証する。
さらに,様々な画像編集タスクに適用可能であることを示す。
コードとデータは公開されています。
関連論文リスト
- IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - Learning Relighting and Intrinsic Decomposition in Neural Radiance Fields [21.057216351934688]
本研究は,リライティングと本質的な分解を併用する手法を提案する。
シーン内の光の変動を利用して擬似ラベルを生成することにより、本手法は本質的な分解のガイダンスを提供する。
提案手法は,実世界の合成データセットと実世界のデータセットの両方で検証し,有望な結果を得た。
論文 参考訳(メタデータ) (2024-06-16T21:10:37Z) - Boosting General Trimap-free Matting in the Real-World Image [0.0]
我々は,textbfMulti-textbfFeature fusion-based textbfCoarse-to-fine Network textbf(MFC-Net)というネットワークを提案する。
提案手法は, 合成画像と実世界の画像の両方において有意に有効であり, 実世界のデータセットの性能は, 既存のマッティングフリー手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2024-05-28T07:37:44Z) - TextCoT: Zoom In for Enhanced Multimodal Text-Rich Image Understanding [91.30065932213758]
大規模マルチモーダルモデル(LMM)は、その顕著な推論能力を活用することを目的とした研究の急増を引き起こした。
テキストリッチな画像理解のための新しいChain-of-ThoughtフレームワークであるTextCoTを提案する。
私たちのメソッドは追加のトレーニングが不要で、即時プラグアンドプレイ機能を提供します。
論文 参考訳(メタデータ) (2024-04-15T13:54:35Z) - Enhancing Scene Text Detectors with Realistic Text Image Synthesis Using
Diffusion Models [63.99110667987318]
DiffTextは、前景のテキストと背景の本質的な特徴をシームレスにブレンドするパイプラインです。
テキストインスタンスが少なくなると、生成したテキストイメージはテキスト検出を支援する他の合成データを一貫して上回ります。
論文 参考訳(メタデータ) (2023-11-28T06:51:28Z) - Light Field Diffusion for Single-View Novel View Synthesis [32.59286750410843]
NVS(Single-view novel view synthesis)は、コンピュータビジョンにおいて重要であるが困難である。
NVSの最近の進歩は、高忠実度画像を生成するのに優れた能力として、Denoising Diffusion Probabilistic Models (DDPMs)を活用している。
光電界拡散(LFD)は,従来のカメラポーズ行列への依存を超越した,条件拡散に基づく新しいアプローチである。
論文 参考訳(メタデータ) (2023-09-20T03:27:06Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Learning-based Inverse Rendering of Complex Indoor Scenes with
Differentiable Monte Carlo Raytracing [27.96634370355241]
本研究はモンテカルロ線トレーシングと重要サンプリングを組み合わせたエンドツーエンドの学習ベースの逆レンダリングフレームワークを提案する。
このフレームワークは1枚の画像を入力として、基礎となる幾何学、空間的に変化する照明、およびフォトリアリスティックな材料を共同で復元する。
論文 参考訳(メタデータ) (2022-11-06T03:34:26Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。