論文の概要: Prompt-Guided Image-Adaptive Neural Implicit Lookup Tables for Interpretable Image Enhancement
- arxiv url: http://arxiv.org/abs/2408.11055v1
- Date: Tue, 20 Aug 2024 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 12:45:00.569005
- Title: Prompt-Guided Image-Adaptive Neural Implicit Lookup Tables for Interpretable Image Enhancement
- Title(参考訳): Prompt-Guided Image-Adaptive Neural Implicit Lookup Tables for Interpretable Image enhance
- Authors: Satoshi Kosugi,
- Abstract要約: 解釈可能な画像強調は、"Exposure"や"Contrast"といった理解しやすい名前でフィルタパラメータを調整することで、画質を向上させる技術である。
入力特徴空間から出力色空間への変換を暗黙的に定義するために,多層パーセプトロンを用いた画像適応型ニューラル暗黙検索テーブルを導入する。
本研究では,視覚モデルと言語モデルを用いて,露出やコントラストなどの強調結果の視覚的印象を導出プロンプトとともに評価する。
- 参考スコア(独自算出の注目度): 4.233370898095789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we delve into the concept of interpretable image enhancement, a technique that enhances image quality by adjusting filter parameters with easily understandable names such as "Exposure" and "Contrast". Unlike using predefined image editing filters, our framework utilizes learnable filters that acquire interpretable names through training. Our contribution is two-fold. Firstly, we introduce a novel filter architecture called an image-adaptive neural implicit lookup table, which uses a multilayer perceptron to implicitly define the transformation from input feature space to output color space. By incorporating image-adaptive parameters directly into the input features, we achieve highly expressive filters. Secondly, we introduce a prompt guidance loss to assign interpretable names to each filter. We evaluate visual impressions of enhancement results, such as exposure and contrast, using a vision and language model along with guiding prompts. We define a constraint to ensure that each filter affects only the targeted visual impression without influencing other attributes, which allows us to obtain the desired filter effects. Experimental results show that our method outperforms existing predefined filter-based methods, thanks to the filters optimized to predict target results. Our source code is available at https://github.com/satoshi-kosugi/PG-IA-NILUT.
- Abstract(参考訳): 本稿では,"Exposure"や"Contrast"といった分かりやすい名前でフィルタパラメータを調整し,画像の質を高める手法である,解釈可能な画像強調の概念を探求する。
事前定義された画像編集フィルタとは違い,我々のフレームワークは学習可能なフィルタを用いて,学習を通して解釈可能な名前を取得する。
私たちの貢献は2倍です。
まず、入力特徴空間から出力色空間への変換を暗黙的に定義するために多層パーセプトロンを用いる、画像適応型ニューラル暗黙検索テーブルと呼ばれる新しいフィルタアーキテクチャを導入する。
画像適応パラメータを直接入力特徴に組み込むことで,高表現性フィルタを実現する。
第二に、各フィルタに解釈可能な名前を割り当てるプロンプト誘導損失を導入する。
本研究では,視覚モデルと言語モデルを用いて,露出やコントラストなどの強調結果の視覚的印象を導出プロンプトとともに評価する。
我々は,各フィルタが他の属性に影響を与えることなく,対象の視覚的印象にのみ影響することを保証するための制約を定義し,望まれるフィルタ効果を得られるようにした。
実験の結果,提案手法は,目標値の予測に最適化されたフィルタにより,既定のフィルタ方式よりも優れていた。
ソースコードはhttps://github.com/satoshi-kosugi/PG-IA-NILUTで公開しています。
関連論文リスト
- ERUP-YOLO: Enhancing Object Detection Robustness for Adverse Weather Condition by Unified Image-Adaptive Processing [0.5312303275762104]
霧や低照度などの悪天候に対する画像適応型物体検出法を提案する。
本フレームワークでは, 後段物体検出に適した画像強調を行うために, 可変プリプロセッシングフィルタを用いる。
我々は,統一画像処理(ERUP)-YOLOによる拡張ロバストネス(Enhanced Robustness)と呼ばれる提案手法をYOLOv3検出器に適用することにより評価した。
論文 参考訳(メタデータ) (2024-11-05T04:20:06Z) - Enhancing Low-Light Images Using Infrared-Encoded Images [81.8710581927427]
従来の芸術は、主にピクセルワイド・ロスを用いて可視光スペクトルで捉えた低照度画像に焦点を当てていた。
我々は,赤外線カットオフフィルタを除去することにより,低照度環境下で撮影された画像の可視性を高める新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T08:29:19Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - When A Conventional Filter Meets Deep Learning: Basis Composition
Learning on Image Filters [20.506636435344333]
そこで本稿では,最適な公式を自動決定するために,単一画像フィルタを用いた基底合成学習を提案する。
提案手法は,ユーザフレンドリなフィルタを描画し,低レベル視覚の基本的な問題に有効である。
論文 参考訳(メタデータ) (2022-03-01T06:34:54Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Instagram Filter Removal on Fashionable Images [2.1485350418225244]
ソーシャルメディア分析アプリケーションにおける画像フィルタの効果を軽減するため,Instagramフィルタ除去ネットワーク(IFRNet)を導入する。
IFRNetは、定量的および定性的な比較においてすべての比較方法を上回ることを実証する。
本研究では,提案モデルのフィルタ分類性能を提示し,比較手法によってフィルタされていない画像の優性色推定を解析する。
論文 参考訳(メタデータ) (2021-04-11T18:44:43Z) - Adaptive Debanding Filter [55.42929350861115]
バンディングアーティファクトは、写真やビデオフレームに階段のような色のバンドとして現れます。
後処理モジュールとして,コンテンツ適応型スムースなフィルタリングと拡張量子化を提案する。
実験結果から,提案した解離フィルタは,最先端の偽輪郭除去アルゴリズムよりも視覚的,定量的に優れていることがわかった。
論文 参考訳(メタデータ) (2020-09-22T20:44:20Z) - Improved Adaptive Type-2 Fuzzy Filter with Exclusively Two Fuzzy
Membership Function for Filtering Salt and Pepper Noise [30.639740354770282]
画像から塩とペッパーノイズをフィルタリングするファジィフィルタが提案されている。
提案するフィルタは,様々なノイズレベルを持つ標準画像に対して検証される。
提案フィルタの性能は,ピーク信号対雑音比と計算時間の観点から,様々な最先端手法と比較する。
論文 参考訳(メタデータ) (2020-08-10T13:18:42Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Recognizing Instagram Filtered Images with Feature De-stylization [81.38905784617089]
本稿では,Instagramのフィルターによって,事前学習モデルがどのような影響を受けているかについて検討する。
画像のグローバルな外観を変えるだけの単純な構造保存フィルタは、畳み込み特徴空間に大きな違いをもたらす可能性が示唆された。
我々は,特徴マップのスケーリングとシフトに使用されるパラメータを予測し,フィルタによって引き起こされる変化を“無視”する,軽量なデスティル化モジュールを導入する。
論文 参考訳(メタデータ) (2019-12-30T16:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。