論文の概要: Learning Adaptive Lighting via Channel-Aware Guidance
- arxiv url: http://arxiv.org/abs/2412.01493v1
- Date: Mon, 02 Dec 2024 13:44:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:42:35.472005
- Title: Learning Adaptive Lighting via Channel-Aware Guidance
- Title(参考訳): チャネル認識誘導による適応照明の学習
- Authors: Qirui Yang, Peng-Tao Jiang, Hao Zhang, Jinwei Chen, Bo Li, Huanjing Yue, Jingyu Yang,
- Abstract要約: 学習適応照明ネットワーク(Learning Adaptive Lighting Network, LALNet)は、様々な光関連タスクを処理できる統合フレームワークである。
異なる色チャネルの光差を強調する色分離機能を導入し、それらを従来の色混合機能と組み合わせる。
代表的な4つの光関連タスクの実験により、LALNetはベンチマークテストで最先端の手法を大幅に上回っていることが示された。
- 参考スコア(独自算出の注目度): 22.594897891133556
- License:
- Abstract: Learning lighting adaption is a key step in obtaining a good visual perception and supporting downstream vision tasks. There are multiple light-related tasks (e.g., image retouching and exposure correction) and previous studies have mainly investigated these tasks individually. However, we observe that the light-related tasks share fundamental properties: i) different color channels have different light properties, and ii) the channel differences reflected in the time and frequency domains are different. Based on the common light property guidance, we propose a Learning Adaptive Lighting Network (LALNet), a unified framework capable of processing different light-related tasks. Specifically, we introduce the color-separated features that emphasize the light difference of different color channels and combine them with the traditional color-mixed features by Light Guided Attention (LGA). The LGA utilizes color-separated features to guide color-mixed features focusing on channel differences and ensuring visual consistency across channels. We introduce dual domain channel modulation to generate color-separated features and a wavelet followed by a vision state space module to generate color-mixed features. Extensive experiments on four representative light-related tasks demonstrate that LALNet significantly outperforms state-of-the-art methods on benchmark tests and requires fewer computational resources. We provide an anonymous online demo at https://xxxxxx2025.github.io/LALNet/.
- Abstract(参考訳): 照明適応の学習は、優れた視覚認識を得るための重要なステップであり、下流の視覚タスクをサポートする。
複数の光関連タスク(例えば、画像のリタッチや露出補正)があり、以前の研究では主にこれらのタスクを個別に研究してきた。
しかし、光関連タスクは基本的な性質を共有している。
一 異なる色のチャネルに異なる光の特性があり、
二 時間及び周波数領域に反映されるチャネル差
共通光特性ガイダンスに基づいて,異なる光関連タスクを処理可能な統合フレームワークであるLearning Adaptive Lighting Network (LALNet)を提案する。
具体的には、異なる色チャネルの光差を強調する色分離機能を導入し、光誘導注意(LGA)による従来の色混合機能と組み合わせる。
LGAは、チャンネルの差異に着目し、チャンネル間の視覚的整合性を確保するために、色分離機能を利用する。
色分離した特徴を生成するためのデュアルドメインチャネル変調と、色混合した特徴を生成するための視覚状態空間モジュールを備えたウェーブレットを導入する。
4つの代表的な光関連タスクに関する大規模な実験により、LALNetはベンチマークテストにおいて最先端の手法を著しく上回り、計算資源を少なくすることを示した。
私たちはhttps://xxxxxx2025.github.io/LALNet/で匿名のオンラインデモを行います。
関連論文リスト
- LumiNet: Latent Intrinsics Meets Diffusion Models for Indoor Scene Relighting [13.433775723052753]
ソースイメージとターゲットのライティングイメージが与えられた後、LumiNetはターゲットのライティングをキャプチャするソースシーンの依存バージョンを合成する。
LumiNetは2つの異なる画像から遅延表現を処理します。
論文 参考訳(メタデータ) (2024-11-29T18:59:11Z) - Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - Color Recognition in Challenging Lighting Environments: CNN Approach [0.0]
研究者は、コンピュータビジョンの応用のための色検出技術を強化するために取り組んでいる。
この問題に対処するために,畳み込みニューラルネットワーク(CNN)に基づく色検出手法を提案する。
本手法は照明条件の異なる色検出の堅牢性を大幅に向上させることができることを実験的に検証した。
論文 参考訳(メタデータ) (2024-02-07T11:26:00Z) - ColorVideoVDP: A visual difference predictor for image, video and display distortions [51.29162719944865]
メトリックは、色調コントラスト感度とチャンネル間のコントラストマスキングという新しい心理物理学モデルに基づいて構築されている。
ディスプレイの観察条件、幾何学的、および測光的特性を考慮に入れている。
一般的なビデオストリーミングの歪みと、AR/VRディスプレイに関連する8つの新しい歪みを予測できるように訓練された。
論文 参考訳(メタデータ) (2024-01-21T13:16:33Z) - Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - Brighten-and-Colorize: A Decoupled Network for Customized Low-Light
Image Enhancement [22.097267755811192]
低照度画像強調(LLIE)は、低照度で撮影された画像の知覚品質を改善することを目的としている。
この領域の最近の進歩は、主に色覚の役割を無視しながら、明るさの洗練に焦点を当てている。
本研究では、上記の問題に対処するために、BCGネットワーク(BCGNet)を提案する。
論文 参考訳(メタデータ) (2023-08-06T06:04:16Z) - MIMT: Multi-Illuminant Color Constancy via Multi-Task Local Surface and
Light Color Learning [42.72878256074646]
単一入力画像における複数の光色を割引するマルチタスク学習手法を提案する。
複数の光色条件下で局所的な表面/光色をより正確に表現するために,我々は新しいマルチタスク学習フレームワークを設計する。
本モデルでは,マルチイルミナントデータセット上で,最先端のマルチイルミナントカラーコンステンシー法と比較して47.1%の改善を実現している。
論文 参考訳(メタデータ) (2022-11-16T09:00:20Z) - Planckian jitter: enhancing the color quality of self-supervised visual
representations [32.28858433165915]
従来の色ジッタが学習した特徴表現における色特徴の質に悪影響を及ぼすかを分析する。
私たちはこのモジュールをPlanckian jitterと呼ばれる物理ベースの色増色に置き換え、色度を現実的に変化させる。
学習した特徴の性能は照度の変化に対して頑健であることを示す。
論文 参考訳(メタデータ) (2022-02-16T11:13:37Z) - End-to-end Multi-modal Video Temporal Grounding [105.36814858748285]
ビデオから補完情報を抽出するマルチモーダルフレームワークを提案する。
我々は、外見にRGB画像、運動に光学フロー、画像構造に深度マップを採用する。
本稿では、Charades-STAおよびActivityNet Captionsデータセットの実験を行い、提案手法が最先端のアプローチに対して好適に動作することを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:10Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。