論文の概要: RRNet: Configurable Real-Time Video Enhancement with Arbitrary Local Lighting Variations
- arxiv url: http://arxiv.org/abs/2601.01865v1
- Date: Mon, 05 Jan 2026 07:50:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.846799
- Title: RRNet: Configurable Real-Time Video Enhancement with Arbitrary Local Lighting Variations
- Title(参考訳): RRNet: 任意局所照明変動を考慮した構成可能なリアルタイムビデオ拡張
- Authors: Wenlong Yang, Canran Jin, Weihang Yuan, Chao Wang, Lifeng Sun,
- Abstract要約: 本稿では,視覚的品質と効率のトレードオフを実現するフレームワークRRNetを紹介する。
RRNetは、ピクセル対応のトレーニングデータを必要とすることなく、深度対応のレンダリングモジュールを通じてローカライズされたリライトを可能にする。
実験により、RRNetは、低照度向上、局所照明調整、グラア除去において、従来手法よりも一貫して優れていたことが示されている。
- 参考スコア(独自算出の注目度): 7.360594425594612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing demand for real-time video enhancement in live applications, existing methods often struggle to balance speed and effective exposure control, particularly under uneven lighting. We introduce RRNet (Rendering Relighting Network), a lightweight and configurable framework that achieves a state-of-the-art tradeoff between visual quality and efficiency. By estimating parameters for a minimal set of virtual light sources, RRNet enables localized relighting through a depth-aware rendering module without requiring pixel-aligned training data. This object-aware formulation preserves facial identity and supports real-time, high-resolution performance using a streamlined encoder and lightweight prediction head. To facilitate training, we propose a generative AI-based dataset creation pipeline that synthesizes diverse lighting conditions at low cost. With its interpretable lighting control and efficient architecture, RRNet is well suited for practical applications such as video conferencing, AR-based portrait enhancement, and mobile photography. Experiments show that RRNet consistently outperforms prior methods in low-light enhancement, localized illumination adjustment, and glare removal.
- Abstract(参考訳): ライブアプリケーションにおけるリアルタイムビデオ強化の需要が高まっているため、既存の方法はスピードと効果的な露光制御のバランスをとるのに苦労することが多い。
RRNet(Rendering Relighting Network)は、視覚的品質と効率の最先端のトレードオフを実現する軽量で構成可能なフレームワークである。
RRNetは、最小限の仮想光源のパラメータを推定することにより、ピクセル対応のトレーニングデータを必要としない深度対応レンダリングモジュールによる局所的なリライトを可能にする。
このオブジェクト認識定式化は、顔のアイデンティティを保存し、合理化エンコーダと軽量予測ヘッドを用いて、リアルタイム、高解像度のパフォーマンスをサポートする。
トレーニングを容易にするために,様々な照明条件を低コストで合成する生成AIベースのデータセット生成パイプラインを提案する。
その解釈可能な照明制御と効率的なアーキテクチャにより、RRNetはビデオ会議、ARベースのポートレートエンハンスメント、モバイル写真などの実用用途に適している。
実験により、RRNetは、低照度向上、局所照明調整、グラア除去において、従来手法よりも一貫して優れていたことが示されている。
関連論文リスト
- LightQANet: Quantized and Adaptive Feature Learning for Low-Light Image Enhancement [65.06462316546806]
低照度画像強調は、高品質な色とテクスチャを維持しながら照明を改善することを目的としている。
既存の手法では、低照度条件下での画素レベルの情報劣化により、信頼性の高い特徴表現の抽出に失敗することが多い。
低照度向上のための量子化・適応型特徴学習を実現する新しいフレームワークLightQANetを提案する。
論文 参考訳(メタデータ) (2025-10-16T14:54:42Z) - Low-Light Enhancement via Encoder-Decoder Network with Illumination Guidance [0.0]
本稿では,低照度画像強調のための新しいディープラーニングフレームワーク,Theを紹介する。
Illumination Guidance (EDNIG) を用いたデコーダネットワーク
EDNIGはBright Channel Prior (BCP)から派生した照明マップをガイダンス入力として統合する。
合成損失関数を用いてGAN(Generative Adversarial Network)フレームワーク内で最適化され、対向損失、画素単位の平均二乗誤差(MSE)、知覚損失を組み合わせた。
論文 参考訳(メタデータ) (2025-07-04T09:35:00Z) - Low-Light Image Enhancement using Event-Based Illumination Estimation [83.81648559951684]
低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
本稿では,「時間的マッピング」イベントを用いた照明推定の観点から,新たな道を開く。
我々は、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集する。
論文 参考訳(メタデータ) (2025-04-13T00:01:33Z) - ALEN: A Dual-Approach for Uniform and Non-Uniform Low-Light Image Enhancement [10.957431540794836]
不適切な照明は、情報損失や画質の低下を招き、監視などの様々な応用に影響を及ぼす可能性がある。
現在のエンハンスメント技術は、しばしば特定のデータセットを使用して低照度画像を強化するが、様々な現実世界の条件に適応する際の課題は残る。
アダプティブ・ライト・エンハンスメント・ネットワーク (ALEN) を導入し、その主なアプローチは、ローカル照明とグローバル照明の強化が必要であるかどうかを決定するための分類機構を使用することである。
論文 参考訳(メタデータ) (2024-07-29T05:19:23Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Neural Video Portrait Relighting in Real-time via Consistency Modeling [41.04622998356025]
本稿では,リアルタイム,高品質,コヒーレントな映像ポートレートリライティングのためのニューラルアプローチを提案する。
エンコーダデコーダアーキテクチャにおけるハイブリッド構造と照明非絡み合いを提案する。
また,実世界における自然ポートレート光操作の照明一貫性と突然変異をモデル化する照明サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2021-04-01T14:13:28Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。