論文の概要: FlowLUT: Efficient Image Enhancement via Differentiable LUTs and Iterative Flow Matching
- arxiv url: http://arxiv.org/abs/2509.23608v1
- Date: Sun, 28 Sep 2025 03:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.322738
- Title: FlowLUT: Efficient Image Enhancement via Differentiable LUTs and Iterative Flow Matching
- Title(参考訳): FlowLUT: 微分可能なLUTと反復フローマッチングによる効率的な画像強調
- Authors: Liubing Hu, Chen Wu, Anrui Wang, Dianjie Lu, Guijuan Zhang, Zhuoran Zheng,
- Abstract要約: FlowLUTは、LUTの効率性、複数プリエント、フローマッチングされた再構成画像のパラメータ非依存特性を統合する、新しいエンドツーエンドモデルである。
軽量な融合予測ネットワークは複数の3D LUT上で動作し、シーン適応色補正には$mathcalO(1)$の複雑さがある。
モデル全体は、知覚的および構造的忠実性を含む複合損失関数の下で共同最適化される。
- 参考スコア(独自算出の注目度): 10.213645938731338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based image enhancement methods face a fundamental trade-off between computational efficiency and representational capacity. For example, although a conventional three-dimensional Look-Up Table (3D LUT) can process a degraded image in real time, it lacks representational flexibility and depends solely on a fixed prior. To address this problem, we introduce FlowLUT, a novel end-to-end model that integrates the efficiency of LUTs, multiple priors, and the parameter-independent characteristic of flow-matched reconstructed images. Specifically, firstly, the input image is transformed in color space by a collection of differentiable 3D LUTs (containing a large number of 3D LUTs with different priors). Subsequently, a lightweight content-aware dynamically predicts fusion weights, enabling scene-adaptive color correction with $\mathcal{O}(1)$ complexity. Next, a lightweight fusion prediction network runs on multiple 3D LUTs, with $\mathcal{O}(1)$ complexity for scene-adaptive color correction.Furthermore, to address the inherent representation limitations of LUTs, we design an innovative iterative flow matching method to restore local structural details and eliminate artifacts. Finally, the entire model is jointly optimized under a composite loss function enforcing perceptual and structural fidelity. Extensive experimental results demonstrate the effectiveness of our method on three benchmarks.
- Abstract(参考訳): 深層学習に基づく画像強調手法は、計算効率と表現能力の基本的なトレードオフに直面している。
例えば、従来の3次元ルックアップテーブル(3D LUT)は、劣化した画像をリアルタイムで処理できるが、表現の柔軟性に欠け、固定された事前にのみ依存する。
この問題に対処するために,LUTの効率,複数先行条件,およびフローマッチングされた再構成画像のパラメータ非依存特性を統合した新しいエンドツーエンドモデルであるFlowLUTを紹介する。
具体的には、入力画像は、微分可能な3D LUTのコレクション(予め異なる多数の3D LUTを含む)によって色空間に変換される。
その後、軽量なコンテンツ認識が融合重みを動的に予測し、$\mathcal{O}(1)$複雑さでシーン適応色補正を可能にする。
次に、軽量な融合予測ネットワークを複数の3D LUT上で動作させ、シーン適応色補正の複雑さを$\mathcal{O}(1)$とする。さらに、LUTの本質的な表現制限に対処するために、局所構造の詳細を復元し、アーティファクトを除去するイノベーティブな反復フローマッチング法を設計する。
最後に、モデル全体は、知覚的および構造的忠実度を強制する複合損失関数の下で、共同最適化される。
本手法の有効性を3つのベンチマークで検証した。
関連論文リスト
- Lightweight and Fast Real-time Image Enhancement via Decomposition of the Spatial-aware Lookup Tables [22.15777751379876]
3次元ルックアップテーブル(3D LUT)に基づく画像強調手法は,モデルサイズと実行時間の両方を効率的に削減する。
しかし、3D LUT法は空間情報の欠如により限界がある。
本稿では,テーブルの冗長部分に着目して画像適応型LUTを生成する手法を提案する。
論文 参考訳(メタデータ) (2025-08-22T06:28:24Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - SepLUT: Separable Image-adaptive Lookup Tables for Real-time Image
Enhancement [21.963622337032344]
上記の制限に対処するため、SepLUT(分離画像適応ルックアップテーブル)を提案する。
具体的には、単一色変換を1Dおよび3D LUTとしてインスタンス化されたコンポーネント非依存およびコンポーネント関連サブ変換のカスケードに分離する。
このように、2つのサブ変換の能力は相互に促進され、3D LUTは色成分を混合する能力を補完する。
論文 参考訳(メタデータ) (2022-07-18T02:27:19Z) - AdaInt: Learning Adaptive Intervals for 3D Lookup Tables on Real-time
Image Enhancement [28.977992864519948]
AdaIntは3次元カラー空間における非一様サンプリング間隔を適応的に学習することで、より柔軟なサンプリングポイント割り当てを実現する新しいメカニズムである。
AdaIntは3D LUT方式のコンパクトで効率的なプラグアンドプレイモジュールとして実装できる。
論文 参考訳(メタデータ) (2022-04-29T10:16:57Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。