論文の概要: Hi-Light: A Path to high-fidelity, high-resolution video relighting with a Novel Evaluation Paradigm
- arxiv url: http://arxiv.org/abs/2601.23167v1
- Date: Fri, 30 Jan 2026 16:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.572142
- Title: Hi-Light: A Path to high-fidelity, high-resolution video relighting with a Novel Evaluation Paradigm
- Title(参考訳): ハイライト:新しい評価パラダイムによる高忠実・高解像度ビデオリライティングへの道
- Authors: Xiangrui Liu, Haoxiang Li, Yezhou Yang,
- Abstract要約: Hi-Lightは、高解像度で高解像度で堅牢なビデオリライトのためのトレーニング不要のフレームワークである。
われわれのアプローチでは、3つの技術革新が紹介されている。
評価における重要なギャップを解決するために,光の安定度を特に測定するための最初の定量的指標である光安定度スコアを提案する。
- 参考スコア(独自算出の注目度): 38.758156014703836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video relighting offers immense creative potential and commercial value but is hindered by challenges, including the absence of an adequate evaluation metric, severe light flickering, and the degradation of fine-grained details during editing. To overcome these challenges, we introduce Hi-Light, a novel, training-free framework for high-fidelity, high-resolution, robust video relighting. Our approach introduces three technical innovations: lightness prior anchored guided relighting diffusion that stabilises intermediate relit video, a Hybrid Motion-Adaptive Lighting Smoothing Filter that leverages optical flow to ensure temporal stability without introducing motion blur, and a LAB-based Detail Fusion module that preserves high-frequency detail information from the original video. Furthermore, to address the critical gap in evaluation, we propose the Light Stability Score, the first quantitative metric designed to specifically measure lighting consistency. Extensive experiments demonstrate that Hi-Light significantly outperforms state-of-the-art methods in both qualitative and quantitative comparisons, producing stable, highly detailed relit videos.
- Abstract(参考訳): ビデオのリライティングは、創造的な可能性と商業的価値を提供するが、適切な評価基準の欠如、厳しい光の点滅、編集中のきめ細かい詳細の劣化など、課題によって妨げられている。
これらの課題を克服するために、ハイライトは、高忠実で高解像度で堅牢なビデオリライトのための、新しい、トレーニングなしのフレームワークである。
提案手法では,光度を固定した誘導光拡散拡散を安定化させる手法,光フローを利用して動作ぼけを発生させることなく時間的安定性を確保するハイブリッド・モーション・アダプティブ・ライティング・スムースティングフィルタ,原ビデオから高頻度の詳細情報を保存するLABベースのDetail Fusionモジュールの3つの技術革新を導入する。
さらに,評価における重要なギャップに対処するため,光の安定度を具体的に測定するための最初の定量的指標である光安定度スコアを提案する。
大規模な実験により、Hi-Lightは定性比較と定量的比較の両方において最先端の手法を著しく上回り、安定した高精細なビデオを生成することが示された。
関連論文リスト
- LightQANet: Quantized and Adaptive Feature Learning for Low-Light Image Enhancement [65.06462316546806]
低照度画像強調は、高品質な色とテクスチャを維持しながら照明を改善することを目的としている。
既存の手法では、低照度条件下での画素レベルの情報劣化により、信頼性の高い特徴表現の抽出に失敗することが多い。
低照度向上のための量子化・適応型特徴学習を実現する新しいフレームワークLightQANetを提案する。
論文 参考訳(メタデータ) (2025-10-16T14:54:42Z) - Zero-TIG: Temporal Consistency-Aware Zero-Shot Illumination-Guided Low-light Video Enhancement [2.9695823613761316]
低照度と水中のビデオは視界が悪く、コントラストが低く、ノイズが高い。
既存のアプローチは通常、ペア化された基底真理に依存しており、実際性は制限され、しばしば時間的一貫性の維持に失敗する。
本稿では、Retinex理論と光フロー技術を活用したゼロショット学習手法Zero-TIGを提案する。
論文 参考訳(メタデータ) (2025-03-14T08:22:26Z) - RelightVid: Temporal-Consistent Diffusion Model for Video Relighting [95.10341081549129]
RelightVidはビデオのリライトのためのフレキシブルなフレームワークだ。
バックグラウンドビデオ、テキストプロンプト、環境マップをリライト条件として受け入れることができる。
内在的な分解を伴わずに、時間的整合性の高い任意のビデオリライティングを実現する。
論文 参考訳(メタデータ) (2025-01-27T18:59:57Z) - Deep Joint Unrolling for Deblurring and Low-Light Image Enhancement (JUDE) [5.013248430919224]
JUDEはDeblurring and Low-Light Image EnhancementのためのDeep Joint Unrollingである。
レチネックス理論とぼやけたモデルに基づいて、低照度のぼやけた入力を反復的に分解して分解する。
我々は,初期ぼやけたカーネルを推定し,明るさを高め,最終画像のノイズを除去するために,様々なモジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-12-10T14:03:41Z) - Unrolled Decomposed Unpaired Learning for Controllable Low-Light Video Enhancement [48.76608212565327]
本稿では,2対の地上真実を使わずに,低照度映像のエンハンスメントを学習する上での取り組みについて述べる。
低照度画像の強調に比べて、空間領域におけるノイズ、露出、コントラストの相互干渉効果により、時間的コヒーレンスの必要性が伴うため、低照度映像の強調は困難である。
本稿では,信号の空間的・時間的関連要因に分解するために,最適化関数を深層ネットワークにアンロールすることで低照度映像の高精細化を実現するUnrolled Decompposed Unpaired Network (UDU-Net)を提案する。
論文 参考訳(メタデータ) (2024-08-22T11:45:11Z) - Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments [51.58771256128329]
本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-11T06:55:32Z) - Diffusion in the Dark: A Diffusion Model for Low-Light Text Recognition [78.50328335703914]
ディフュージョン・イン・ザ・ダーク (Diffusion in the Dark, DiD) は、テキスト認識のための低照度画像再構成のための拡散モデルである。
実画像上での低照度テキスト認識において,Digital DiDがSOTAの低照度手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-07T23:52:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。