論文の概要: AttentionLut: Attention Fusion-based Canonical Polyadic LUT for
Real-time Image Enhancement
- arxiv url: http://arxiv.org/abs/2401.01569v1
- Date: Wed, 3 Jan 2024 06:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 14:57:50.870420
- Title: AttentionLut: Attention Fusion-based Canonical Polyadic LUT for
Real-time Image Enhancement
- Title(参考訳): attentionlut: リアルタイム画像強調のためのアテンション融合ベースの正準多進性lut
- Authors: Kang Fu, Yicong Peng, Zicheng Zhang, Qihang Xu, Xiaohong Liu, Jia
Wang, Guangtao Zhai
- Abstract要約: 本稿では,リアルタイム画像強調のための新しいフレームワークであるAttentionLutを提案する。
提案するフレームワークは,3つの軽量モジュールから構成される。
MIT-Adobe FiveKデータセットのベンチマーク実験により、提案手法は最先端の手法よりも優れた向上性能が得られることが示された。
- 参考スコア(独自算出の注目度): 38.61183657952919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many algorithms have employed image-adaptive lookup tables (LUTs)
to achieve real-time image enhancement. Nonetheless, a prevailing trend among
existing methods has been the employment of linear combinations of basic LUTs
to formulate image-adaptive LUTs, which limits the generalization ability of
these methods. To address this limitation, we propose a novel framework named
AttentionLut for real-time image enhancement, which utilizes the attention
mechanism to generate image-adaptive LUTs. Our proposed framework consists of
three lightweight modules. We begin by employing the global image context
feature module to extract image-adaptive features. Subsequently, the attention
fusion module integrates the image feature with the priori attention feature
obtained during training to generate image-adaptive canonical polyadic tensors.
Finally, the canonical polyadic reconstruction module is deployed to
reconstruct image-adaptive residual 3DLUT, which is subsequently utilized for
enhancing input images. Experiments on the benchmark MIT-Adobe FiveK dataset
demonstrate that the proposed method achieves better enhancement performance
quantitatively and qualitatively than the state-of-the-art methods.
- Abstract(参考訳): 近年,画像適応ルックアップテーブル (LUT) を用いてリアルタイムな画像強調を実現しているアルゴリズムが多数存在する。
しかし,従来の手法では画像適応型LUTの線形組み合わせが主流であり,これらの手法の一般化能力を制限している。
そこで本稿では,注意機構を利用して画像適応lutを生成する,リアルタイム画像強調のためのattententlutという新しいフレームワークを提案する。
提案するフレームワークは,3つの軽量モジュールから構成される。
まず、global image context featureモジュールを使用して画像適応機能を抽出する。
その後、注意融合モジュールは、訓練中に得られた事前注意特徴と画像特徴を統合して、画像適応型正準多進テンソルを生成する。
最後に、標準ポリエイド再構成モジュールを配置し、画像適応残差3DLUTを再構成し、入力画像の強化に利用する。
MIT-Adobe FiveKデータセットのベンチマーク実験により,提案手法は最先端の手法よりも定量的かつ定性的に向上することを示した。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Training-and-prompt-free General Painterly Harmonization Using Image-wise Attention Sharing [20.189124622271446]
Painterly Image Harmonizationは、異なる視覚要素を単一のコヒーレントなイメージにシームレスにブレンドすることを目的としている。
以前のアプローチでは、データ制約のトレーニング、時間を要する微調整の必要性、追加のプロンプトへの依存など、重大な制限に直面する場合が多い。
イメージワイド・アテンション・シェアリングを用いたトレーニング・アンド・プロンプトフリーの一般絵画調和手法を設計する。
論文 参考訳(メタデータ) (2024-04-19T14:13:46Z) - Improving Bracket Image Restoration and Enhancement with Flow-guided Alignment and Enhanced Feature Aggregation [32.69740459810521]
フローガイド特徴アライメントモジュール(FFAM)と拡張特徴アグリゲーションモジュール(EFAM)による多重露光とアグリゲーションを改善するIREANetを提案する。
実験により,提案したIREANetは従来の手法と比較して最先端性能を示した。
論文 参考訳(メタデータ) (2024-04-16T07:46:55Z) - CFAT: Unleashing TriangularWindows for Image Super-resolution [5.130320840059732]
トランスフォーマーモデルが画像超解像(SR)の分野に革命をもたらした
境界レベルの歪みを軽減するために,矩形ウィンドウと同期して動作する非重なりの三角形ウィンドウ手法を提案する。
提案モデルでは,他の最先端SRアーキテクチャに比べて0.7dB性能が向上した。
論文 参考訳(メタデータ) (2024-03-24T13:31:31Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Bridging CLIP and StyleGAN through Latent Alignment for Image Editing [33.86698044813281]
我々はCLIPとStyleGANを橋渡し、推論時最適化のない多様な操作方向マイニングを実現する。
このマッピング方式により、GANインバージョン、テキスト・ツー・イメージ生成、テキスト駆動画像操作を実現することができる。
論文 参考訳(メタデータ) (2022-10-10T09:17:35Z) - Retrieval-based Spatially Adaptive Normalization for Semantic Image
Synthesis [68.1281982092765]
本稿では,Retrieval-based spatially AdaptIve normalization (RESAIL) と呼ばれる新しい正規化モジュールを提案する。
RESAILは、正規化アーキテクチャに対するピクセルレベルのきめ細かいガイダンスを提供する。
いくつかの挑戦的なデータセットの実験により、RESAILは定量的メトリクス、視覚的品質、主観的評価の観点から、最先端技術に対して好意的に機能することが示された。
論文 参考訳(メタデータ) (2022-04-06T14:21:39Z) - Image-specific Convolutional Kernel Modulation for Single Image
Super-resolution [85.09413241502209]
本稿では,新しい画像特異的畳み込み変調カーネル(IKM)を提案する。
我々は、画像や特徴のグローバルな文脈情報を利用して、畳み込みカーネルを適応的に調整するための注意重みを生成する。
単一画像超解像実験により,提案手法は最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-11-16T11:05:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。