論文の概要: UnReflectAnything: RGB-Only Highlight Removal by Rendering Synthetic Specular Supervision
- arxiv url: http://arxiv.org/abs/2512.09583v2
- Date: Thu, 11 Dec 2025 15:21:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 14:11:15.292941
- Title: UnReflectAnything: RGB-Only Highlight Removal by Rendering Synthetic Specular Supervision
- Title(参考訳): UnReflectAnything:合成スペクトルスーパービジョンのレンダリングによるRGBのみのハイライト除去
- Authors: Alberto Rota, Mert Kiray, Mert Asim Karaoglu, Patrick Ruhkamp, Elena De Momi, Nassir Navab, Benjamin Busam,
- Abstract要約: 我々は、単一の画像からハイライトを削除するRGB専用のフレームワークUnReflectAnythingを紹介する。
反射のない拡散再構成とともにハイライトマップを予測する。
自然と外科の領域にまたがって一般化され、非ランベルト面や一様でない照明が顕著なハイライトを生み出している。
- 参考スコア(独自算出の注目度): 51.72020507506023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Specular highlights distort appearance, obscure texture, and hinder geometric reasoning in both natural and surgical imagery. We present UnReflectAnything, an RGB-only framework that removes highlights from a single image by predicting a highlight map together with a reflection-free diffuse reconstruction. The model uses a frozen vision transformer encoder to extract multi-scale features, a lightweight head to localize specular regions, and a token-level inpainting module that restores corrupted feature patches before producing the final diffuse image. To overcome the lack of paired supervision, we introduce a Virtual Highlight Synthesis pipeline that renders physically plausible specularities using monocular geometry, Fresnel-aware shading, and randomized lighting which enables training on arbitrary RGB images with correct geometric structure. UnReflectAnything generalizes across natural and surgical domains where non-Lambertian surfaces and non-uniform lighting create severe highlights and it achieves competitive performance with state-of-the-art results on several benchmarks. Project Page: https://alberto-rota.github.io/UnReflectAnything/
- Abstract(参考訳): 特異なハイライトは、歪んだ外観、曖昧なテクスチャ、および自然画像と外科画像の両方における幾何学的推論を妨げる。
我々は,RGBのみのフレームワークであるUnReflectAnythingを紹介した。このフレームワークは,反射のない拡散再構成とともにハイライトマップを予測することにより,単一の画像からハイライトを除去する。
このモデルは、凍結した視覚変換器エンコーダを使用して、マルチスケールの特徴を抽出し、軽量なヘッドで特定領域をローカライズし、最終拡散画像を生成する前に、破損した特徴パッチを復元するトークンレベルの塗装モジュールを使用する。
ペア化された監督の欠如を克服するため,モノクロ幾何学,フレネル認識シェーディング,ランダム化照明を用いて物理的に可視な特異点を描画する仮想ハイライト合成パイプラインを導入し,任意のRGB画像を正確な幾何学的構造でトレーニングする。
UnReflectAnythingは、非ランベルト面と非一様照明が激しいハイライトを生み出し、いくつかのベンチマークで最先端の結果と競合するパフォーマンスを達成する自然領域と外科領域を一般化する。
Project Page: https://alberto-rota.github.io/UnReflectAnything/
関連論文リスト
- Reflections Unlock: Geometry-Aware Reflection Disentanglement in 3D Gaussian Splatting for Photorealistic Scenes Rendering [51.223347330075576]
Ref-Unlockは3Dガウススプラッティングをベースとした新しい幾何認識反射モデリングフレームワークである。
提案手法では、高次球面高調波を用いた二重分岐表現を用いて、高周波反射の詳細を捉える。
そこで本手法は,反射シーンのリアルなレンダリングのための効率的で一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-07-08T15:45:08Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - Monocular Identity-Conditioned Facial Reflectance Reconstruction [71.90507628715388]
既存の方法は、顔の反射率モデルを学ぶために、大量の光ステージキャプチャーデータに依存している。
我々は、UV空間ではなく画像空間で反射率を学習し、ID2Reflectanceというフレームワークを提案する。
本フレームワークは,訓練に限られた反射率データを用いながら,単一の画像の反射率マップを直接推定することができる。
論文 参考訳(メタデータ) (2024-03-30T09:43:40Z) - NeRRF: 3D Reconstruction and View Synthesis for Transparent and Specular
Objects with Neural Refractive-Reflective Fields [23.099784003061618]
ニューラル放射場(NeRF)に屈折反射場を導入する
NeRFは直線線を使用し、屈折や反射によって引き起こされる複雑な光路の変化に対処できない。
本稿では,効果的かつ効果的なアンチエイリアスを実現するための仮想コーンスーパーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-09-22T17:59:12Z) - NeRO: Neural Geometry and BRDF Reconstruction of Reflective Objects from
Multiview Images [44.1333444097976]
未知の環境で撮影された多視点画像から反射物体の形状とBRDFを再構成するニューラルネットワークNeROを提案する。
論文 参考訳(メタデータ) (2023-05-27T07:40:07Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。