論文の概要: Illumination Adaptive Transformer
- arxiv url: http://arxiv.org/abs/2205.14871v1
- Date: Mon, 30 May 2022 06:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 06:18:31.874366
- Title: Illumination Adaptive Transformer
- Title(参考訳): 照明適応変圧器
- Authors: Ziteng Cui, Kunchang Li, Lin Gu, Shenghan Su, Peng Gao, Zhengkai
Jiang, Yu Qiao, Tatsuya Harada
- Abstract要約: 軽量高速照明適応変換器(IAT)を提案する。
IATは、光変換パイプラインをローカルおよびグローバルISPコンポーネントに分解する。
我々は、複数の実世界のデータセット上でIATを広範囲に評価した。
- 参考スコア(独自算出の注目度): 66.50045722358503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Challenging illumination conditions (low light, underexposure and
overexposure) in the real world not only cast an unpleasant visual appearance
but also taint the computer vision tasks. Existing light adaptive methods often
deal with each condition individually. What is more, most of them often operate
on a RAW image or over-simplify the camera image signal processing (ISP)
pipeline. By decomposing the light transformation pipeline into local and
global ISP components, we propose a lightweight fast Illumination Adaptive
Transformer (IAT) which comprises two transformer-style branches: local
estimation branch and global ISP branch. While the local branch estimates the
pixel-wise local components relevant to illumination, the global branch defines
learnable quires that attend the whole image to decode the parameters. Our IAT
could also conduct both object detection and semantic segmentation under
various light conditions. We have extensively evaluated IAT on multiple
real-world datasets on 2 low-level tasks and 3 high-level tasks. With only 90k
parameters and 0.004s processing speed (excluding high-level module), our IAT
has consistently achieved superior performance over SOTA. Code is available at
https://github.com/cuiziteng/IlluminationAdaptive-Transformer.
- Abstract(参考訳): 現実世界における照明条件(低光度、過露出、過露出)の挑戦は、不快な視覚的な外観だけでなく、コンピュータビジョンのタスクを味わう。
既存の光適応法はしばしば個々の条件を個別に扱う。
さらに、その多くは生の画像上で動作したり、カメラ画像信号処理(isp)パイプラインを過度に単純化する。
光変換パイプラインをローカルおよびグローバルISPコンポーネントに分解することにより、ローカル推定ブランチとグローバルISPブランチという2つのトランスフォーマースタイルのブランチからなる軽量な高速イルミネーション適応トランス (IAT) を提案する。
ローカルブランチは、照明に関連するピクセル単位のローカルコンポーネントを推定するが、グローバルブランチは、画像全体に対応する学習可能なクイアを定義し、パラメータをデコードする。
我々のIATは、様々な光条件下でオブジェクト検出とセマンティックセグメンテーションの両方を行うこともできる。
我々は2つの低レベルタスクと3つの高レベルタスクで複数の実世界のデータセット上でIATを広範囲に評価した。
90kのパラメータと0.004sの処理速度(高レベルモジュールを除く)で、当社のIATはSOTAよりもずっと優れたパフォーマンスを実現しています。
コードはhttps://github.com/cuiziteng/IlluminationAdaptive-Transformerで入手できる。
関連論文リスト
- Depth-Wise Convolutions in Vision Transformers for Efficient Training on Small Datasets [11.95214938154427]
Vision Transformer (ViT)は、イメージをパッチに分割することで、グローバルな情報をキャプチャする。
ViTは、画像やビデオデータセットのトレーニング中に誘導バイアスを欠く。
本稿では,ViTモデルのショートカットとして,軽量なDepth-Wise Convolutionモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-28T04:23:40Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - Isomer: Isomerous Transformer for Zero-shot Video Object Segmentation [59.91357714415056]
コンテクスト共有変換器(CST)とセマンティックガザリング散乱変換器(SGST)の2つの変種を提案する。
CSTは、軽量な計算により、画像フレーム内のグローバル共有コンテキスト情報を学習し、SGSTは、前景と背景のセマンティック相関を別々にモデル化する。
多段核融合にバニラ変換器を使用するベースラインと比較して,我々は13倍の速度向上を実現し,新しい最先端ZVOS性能を実現する。
論文 参考訳(メタデータ) (2023-08-13T06:12:00Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - LRT: An Efficient Low-Light Restoration Transformer for Dark Light Field
Images [9.926231893220063]
近年の低照度化のための学習手法には欠点がある。
LF画像に対する効率的な低照度復元変換器(LRT)を提案する。
提案手法は,低照度かつノイズの多いLF画像の復元において,優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-09-06T03:23:58Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Detail-Preserving Transformer for Light Field Image Super-Resolution [15.53525700552796]
我々は,光場超解像をシーケンス・ツー・シーケンスの再構成タスクとして扱うことにより,トランスフォーマー上に構築された新しい定式化を行った。
本稿では,光場の勾配マップを利用してシーケンス学習のガイドを行うことにより,ディテール保存型変換器(DPT)を提案する。
DPTは2つのブランチで構成され、それぞれがトランスフォーマーに関連付けられ、オリジナルまたはグラデーション画像シーケンスから学習する。
論文 参考訳(メタデータ) (2022-01-02T12:33:23Z) - Vision Transformer with Progressive Sampling [73.60630716500154]
本稿では,識別領域を特定するための反復的・漸進的なサンプリング手法を提案する。
ImageNetでスクラッチからトレーニングされた場合、PS-ViTはトップ1の精度でバニラViTよりも3.8%高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-08-03T18:04:31Z) - Conditional Sequential Modulation for Efficient Global Image Retouching [45.99310982782054]
フォトリタッチは、露出過度、コントラストの低さ、不調和な彩度といった写真的欠陥に悩まされる画像の美的品質を高めることを目的としている。
本稿では,一般的に使用されているリタッチ操作について検討し,これらの画素非依存演算が多層パーセプトロン(MLP)によって近似あるいは定式化可能であることを数学的に確認する。
我々は,効率的なグローバル画像リタッチのための非常に軽量なフレームワークであるSequential Retouching Network (CSRNet)を提案する。
論文 参考訳(メタデータ) (2020-09-22T08:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。