論文の概要: DRT: A Lightweight Single Image Deraining Recursive Transformer
- arxiv url: http://arxiv.org/abs/2204.11385v1
- Date: Mon, 25 Apr 2022 01:06:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 14:18:18.304560
- Title: DRT: A Lightweight Single Image Deraining Recursive Transformer
- Title(参考訳): DRT:軽量で再帰的変換が可能なシングルイメージデライニングトランス
- Authors: Yuanchu Liang, Saeed Anwar, Yang Liu
- Abstract要約: パラメータ化の超過は、モデルが与えられたタスクに対して十分に学習し、一般化するのを手助けするディープラーニングの一般的なテクニックである。
最近の視覚タスクにおける強力なトランスフォーマーベースディープラーニングモデルは通常、重いパラメータを持ち、訓練の難しさを負う。
残差接続を有する自己アテンション構造を導入し、再帰変換器(DRT)のデライン化を提案する。
提案モデルでは,Rain100Lベンチマークの最先端手法を少なくとも0.33dB超えながら,現在最高の性能モデルのパラメータの1.3%しか使用していない。
- 参考スコア(独自算出の注目度): 21.889582347604648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over parameterization is a common technique in deep learning to help models
learn and generalize sufficiently to the given task; nonetheless, this often
leads to enormous network structures and consumes considerable computing
resources during training. Recent powerful transformer-based deep learning
models on vision tasks usually have heavy parameters and bear training
difficulty. However, many dense-prediction low-level computer vision tasks,
such as rain streak removing, often need to be executed on devices with limited
computing power and memory in practice. Hence, we introduce a recursive local
window-based self-attention structure with residual connections and propose
deraining a recursive transformer (DRT), which enjoys the superiority of the
transformer but requires a small amount of computing resources. In particular,
through recursive architecture, our proposed model uses only 1.3% of the number
of parameters of the current best performing model in deraining while exceeding
the state-of-the-art methods on the Rain100L benchmark by at least 0.33 dB.
Ablation studies also investigate the impact of recursions on derain outcomes.
Moreover, since the model contains no deliberate design for deraining, it can
also be applied to other image restoration tasks. Our experiment shows that it
can achieve competitive results on desnowing. The source code and pretrained
model can be found at https://github.com/YC-Liang/DRT.
- Abstract(参考訳): パラメータ化の超過は、モデルが与えられたタスクに対して十分に学習し、一般化するのを手助けするディープラーニングの一般的なテクニックである。
最近の視覚タスクにおける強力なトランスフォーマーベースディープラーニングモデルは通常、重いパラメータを持ち、訓練の難しさを負う。
しかしながら、レインストリーク除去のような高密度の低レベルコンピュータビジョンタスクの多くは、実際にはコンピュータパワーとメモリに制限のあるデバイスで実行される必要がある。
そこで本研究では,残差接続を持つ再帰的局所窓型自己着脱構造を導入し,トランスの優位性を享受するが少ない計算資源を必要とする再帰的トランスフォーマ(drt)の導出を提案する。
特に再帰的アーキテクチャにより,提案モデルでは,Rain100Lベンチマークの最先端手法を少なくとも0.33dB超えながら,現在の最高の性能モデルのパラメータの1.3%しか利用していない。
アブレーション研究は、再帰がデラインの結果に与える影響についても研究している。
また, このモデルにはデラミニングのための意図的な設計がないため, 他の画像復元にも適用可能である。
我々の実験は, 難読化の競争結果が得られることを示した。
ソースコードと事前訓練されたモデルはhttps://github.com/YC-Liang/DRTで見ることができる。
関連論文リスト
- Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - Continual Learning with Transformers for Image Classification [12.028617058465333]
コンピュータビジョンでは、ニューラルネットワークモデルは、過去に何を学んだかを忘れずに、新しい概念を継続的に学習する。
本研究では,適応型適応器の蒸留法 (ADA) を開発した。
本手法は,モデルを再学習することなく,優れた予測性能を維持することを実証的に示す。
論文 参考訳(メタデータ) (2022-06-28T15:30:10Z) - Lightweight Bimodal Network for Single-Image Super-Resolution via
Symmetric CNN and Recursive Transformer [27.51790638626891]
シングルイメージ・スーパーレゾリューション(SISR)は、ディープラーニングの開発において大きなブレークスルーを達成している。
そこで本研究では,SISRのための軽量バイモーダルネットワーク(LBNet)を提案する。
具体的には,局所特徴抽出と粗い画像再構成に有効なシンメトリCNNを設計する。
論文 参考訳(メタデータ) (2022-04-28T04:43:22Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - Sliced Recursive Transformer [23.899076070924153]
視覚変換器における再帰操作は、追加パラメータを伴わずにパラメータ利用を改善することができる。
我々のモデル Sliced Recursive Transformer (SReT) は、効率的な視覚変換のための様々な設計と互換性がある。
論文 参考訳(メタデータ) (2021-11-09T17:59:14Z) - From Rain Generation to Rain Removal [67.71728610434698]
雨層を生成物としてパラメータ化した雨画像のためのベイズ生成モデルを構築した。
降雨画像の統計的分布を推定するために,変分推論の枠組みを用いる。
総合的な実験により,提案モデルが複雑な降雨分布を忠実に抽出できることが確認された。
論文 参考訳(メタデータ) (2020-08-08T18:56:51Z) - A Model-driven Deep Neural Network for Single Image Rain Removal [52.787356046951494]
完全解釈可能なネットワーク構造を持つモデル駆動型ディープニューラルネットワークを提案する。
雨を表現するための畳み込み辞書学習機構に基づいて,新しい単一画像デレーニングモデルを提案する。
すべてのレインカーネルとオペレータは自動的に抽出され、レイン層とクリーンなバックグラウンド層の両方の特徴を忠実に特徴付けることができる。
論文 参考訳(メタデータ) (2020-05-04T09:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。