論文の概要: Zero-Reference Joint Low-Light Enhancement and Deblurring via Visual Autoregressive Modeling with VLM-Derived Modulation
- arxiv url: http://arxiv.org/abs/2511.18591v1
- Date: Sun, 23 Nov 2025 19:08:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.914718
- Title: Zero-Reference Joint Low-Light Enhancement and Deblurring via Visual Autoregressive Modeling with VLM-Derived Modulation
- Title(参考訳): VLM変調を用いた視覚自己回帰モデルによるゼロ参照低照度化と劣化
- Authors: Wei Dong, Han Zhou, Junwei Lin, Jun Chen,
- Abstract要約: 現実の暗黒画像は、視界とコントラストの低いだけでなく、複雑なノイズやぼやけも示しており、重要な修復上の課題を呈している。
視覚言語モデル(VLM)を用いた視覚自己回帰モデル(VAR)に基づく生成フレームワークを提案する。
我々のフレームワークは完全に教師なしであり、ベンチマークデータセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 18.67176370944511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world dark images commonly exhibit not only low visibility and contrast but also complex noise and blur, posing significant restoration challenges. Existing methods often rely on paired data or fail to model dynamic illumination and blur characteristics, leading to poor generalization. To tackle this, we propose a generative framework based on visual autoregressive (VAR) modeling, guided by perceptual priors from the vision-language model (VLM). Specifically, to supply informative conditioning cues for VAR models, we deploy an adaptive curve estimation scheme to modulate the diverse illumination based on VLM-derived visibility scores. In addition, we integrate dynamic and spatial-frequency-aware Rotary Positional Encodings (SF-RoPE) into VAR to enhance its ability to model structures degraded by blur. Furthermore, we propose a recursive phase-domain modulation strategy that mitigates blur-induced artifacts in the phase domain via bounded iterative refinement guided by VLM-assessed blur scores. Our framework is fully unsupervised and achieves state-of-the-art performance on benchmark datasets.
- Abstract(参考訳): 現実の暗黒画像は、視界とコントラストの低いだけでなく、複雑なノイズやぼやけも示しており、重要な修復上の課題を呈している。
既存の手法は、しばしばペア化されたデータに依存するか、動的照明とブラー特性のモデル化に失敗し、一般化が不十分になる。
そこで本研究では,視覚言語モデル(VLM)を用いた視覚自己回帰モデル(VAR)に基づく生成フレームワークを提案する。
具体的には,VARモデルに情報伝達条件を与えるために,VLMに基づく可視性スコアに基づく多彩な照明を変調する適応曲線推定スキームをデプロイする。
さらに、動的かつ空間周波数対応の回転位置符号化(SF-RoPE)をVARに統合し、ボケで劣化した構造をモデル化する能力を高める。
さらに,VLM測定したボケスコアによって導かれる有界反復精製により,位相領域のぼかし誘起アーティファクトを緩和する再帰的な位相領域変調戦略を提案する。
我々のフレームワークは完全に教師なしであり、ベンチマークデータセット上で最先端のパフォーマンスを達成する。
関連論文リスト
- LVD-GS: Gaussian Splatting SLAM for Dynamic Scenes via Hierarchical Explicit-Implicit Representation Collaboration Rendering [21.615484471658842]
3次元ガウス散乱SLAMは空間知能における高忠実度マッピングの手法として広く用いられている。
既存の手法は、大規模でダイナミックな屋外シーンでの性能を制限する単一の表現方式に依存していることが多い。
我々は,新しいLiDAR-Visual 3D Gaussian Splatting SLAMシステムである textbfLVD-GS を提案する。
論文 参考訳(メタデータ) (2025-10-26T13:16:39Z) - Towards Generalized Range-View LiDAR Segmentation in Adverse Weather [65.22588361803942]
我々は、厳しい天候下でのLiDARセグメンテーションの一般化に影響を及ぼす固有の課題を特定し、分析する。
既存のモデルのコアアーキテクチャを変更することなく、ロバスト性を高めるモジュール式で軽量なフレームワークを提案する。
提案手法は,推定オーバーヘッドを最小限に抑え,悪天候への一般化を著しく改善する。
論文 参考訳(メタデータ) (2025-06-10T16:48:27Z) - URWKV: Unified RWKV Model with Multi-state Perspective for Low-light Image Restoration [22.746234919635018]
多状態視点を用いた統一受容重み付き鍵値(URWKV)モデルを提案する。
URWKVブロックのコアをカスタマイズし、複数のステージ内およびステージ間状態を利用して複雑な劣化を認識・解析する。
最先端モデルと比較して、URWKVモデルは様々なベンチマークにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-05-29T04:17:09Z) - Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement [2.9873893715462185]
ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
論文 参考訳(メタデータ) (2024-03-05T11:39:17Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - A Unified Conditional Framework for Diffusion-based Image Restoration [39.418415473235235]
画像復元のための拡散モデルに基づく統一条件付きフレームワークを提案する。
我々は、軽量なUNetを利用して初期ガイダンスと拡散モデルを予測し、指導の残余を学習する。
そこで本研究では,高解像度画像を扱うために,単純なステップ間パッチ分割方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。