論文の概要: Intrinsic PAPR for Point-level 3D Scene Albedo and Shading Editing
- arxiv url: http://arxiv.org/abs/2407.00500v1
- Date: Sat, 29 Jun 2024 17:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 02:46:30.901812
- Title: Intrinsic PAPR for Point-level 3D Scene Albedo and Shading Editing
- Title(参考訳): ポイントレベルの3次元アルベドとシェーディング編集のための固有のPAPR
- Authors: Alireza Moazeni, Shichong Peng, Ke Li,
- Abstract要約: Intrinsic PAPRは,最近の点ベースニューラルレンダリング技術である Proximity Attention Point Rendering (PAPR) に基づく新しい手法である。
シーンの本質的な分解をモデル化する他の点ベース手法とは異なり、我々の手法は、普遍的に適用されない複雑なシェーディングモデルや単純化された先行モデルに依存しない。
- 参考スコア(独自算出の注目度): 6.437067581742357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in neural rendering have excelled at novel view synthesis from multi-view RGB images. However, they often lack the capability to edit the shading or colour of the scene at a detailed point-level, while ensuring consistency across different viewpoints. In this work, we address the challenge of point-level 3D scene albedo and shading editing from multi-view RGB images, focusing on detailed editing at the point-level rather than at a part or global level. While prior works based on volumetric representation such as NeRF struggle with achieving 3D consistent editing at the point level, recent advancements in point-based neural rendering show promise in overcoming this challenge. We introduce ``Intrinsic PAPR'', a novel method based on the recent point-based neural rendering technique Proximity Attention Point Rendering (PAPR). Unlike other point-based methods that model the intrinsic decomposition of the scene, our approach does not rely on complicated shading models or simplistic priors that may not universally apply. Instead, we directly model scene decomposition into albedo and shading components, leading to better estimation accuracy. Comparative evaluations against the latest point-based inverse rendering methods demonstrate that Intrinsic PAPR achieves higher-quality novel view rendering and superior point-level albedo and shading editing.
- Abstract(参考訳): ニューラルレンダリングの最近の進歩は、マルチビューRGB画像からの新しいビュー合成において優れている。
しかし、細かなポイントレベルでシーンのシェーディングや色を編集する能力は欠如しており、異なる視点で一貫性を確保している。
本研究では,ポイントレベルの3DシーンアルベドとマルチビューRGB画像からのシェーディング編集の課題に対処する。
NeRFのようなボリューム表現に基づく以前の研究は、ポイントレベルで3D一貫した編集を達成するのに苦労していたが、ポイントベースのニューラルレンダリングの最近の進歩は、この課題を克服することを約束している。
Intrinsic PAPR'は,最近の点ベースニューラルレンダリング技術である Proximity Attention Point Rendering (PAPR) に基づく新しい手法である。
シーンの本質的な分解をモデル化する他の点ベース手法とは異なり、我々の手法は、普遍的に適用されない複雑なシェーディングモデルや単純化された先行モデルに依存しない。
代わりに、シーン分解を直接アルベドとシェーディングコンポーネントにモデル化し、推定精度を向上する。
Intrinsic PAPR は高画質の新規ビューレンダリングと優れた点レベルアルベドとシェーディング編集を実現する。
関連論文リスト
- GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - PAPR in Motion: Seamless Point-level 3D Scene Interpolation [6.437067581742357]
PAPR in Motion」は、大きなシーンの変化をブリッジし、幾何学と外観の両面において視覚的一貫性と時間的滑らかさを生み出すように設計されている。
多様な動作タイプによる評価は、「動作中のPAPR」が、ダイナミックシーンにおける主要なニューラルシーンよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-08T17:27:27Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - TRIPS: Trilinear Point Splatting for Real-Time Radiance Field Rendering [6.142272540492937]
本稿では,ガウス版とADOP版の両方のアイデアを組み合わせたTRIPS(Trilinear Splatting)を提案する。
評価の結果,TRIPS はレンダリング品質の点で既存の最先端手法を超越していることがわかった。
このパフォーマンスは、複雑な幾何学、広大な風景、自動露光映像など、困難なシナリオにまで拡張されている。
論文 参考訳(メタデータ) (2024-01-11T16:06:36Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [94.47518916521065]
カラーフィールドを2次元の鮮明なアグリゲーションに置き換えることを提案する。
歪み効果を回避し、簡便な編集を容易にするため、3Dの点をテクスチャルックアップのために2Dピクセルにマッピングする投影場を標準画像に補完する。
私たちの表現はAGAPと呼ばれ、再最適化を必要とせず、様々な3D編集方法(スタイル化、インタラクティブな描画、コンテンツ抽出など)をうまくサポートしています。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - PaletteNeRF: Palette-based Appearance Editing of Neural Radiance Fields [60.66412075837952]
本稿では,3次元色分解に基づくニューラルラジアンスフィールド(NeRF)の出現編集手法であるPaletteNeRFを提案する。
提案手法は,各3次元点の出現を,パレットベースによる線形結合に分解する。
我々は、セマンティック・アウェアな外観編集のためのセマンティック機能を圧縮したフレームワークを拡張した。
論文 参考訳(メタデータ) (2022-12-21T00:20:01Z) - DINER: Depth-aware Image-based NEural Radiance fields [45.63488428831042]
我々はDINER(Depth-aware Image-based NEural Radiance Field)を提案する。
RGB入力ビューの粗いセットが与えられた場合、シーン表現の再構築を導くために深度と特徴マップを予測する。
特徴融合と効率的なシーンサンプリングに深度情報を組み込む新しい手法を提案する。
論文 参考訳(メタデータ) (2022-11-29T23:22:44Z) - Generalizable Patch-Based Neural Rendering [46.41746536545268]
未知のシーンの新たなビューを合成できるモデル学習のための新しいパラダイムを提案する。
本手法は,シーンから採取したパッチの集合からのみ,新規シーンにおける対象光線の色を直接予測することができる。
本手法は,従来よりも少ないデータでトレーニングされた場合であっても,目立たないシーンの新たなビュー合成において,最先端のビュー合成よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-21T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。