論文の概要: Improving Image De-raining Using Reference-Guided Transformers
- arxiv url: http://arxiv.org/abs/2408.00258v1
- Date: Thu, 1 Aug 2024 03:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 21:45:24.469000
- Title: Improving Image De-raining Using Reference-Guided Transformers
- Title(参考訳): 参照誘導変換器を用いた画像デレイニングの改善
- Authors: Zihao Ye, Jaehoon Cho, Changjae Oh,
- Abstract要約: 本稿では,参照クリーンイメージをガイダンスとして,デレーニング結果を向上するトランスフォーマネットワークであるレファレンス誘導型デレーニングフィルタを提案する。
提案手法を3つのデータセット上で検証し,既存の事前ベース,CNNベース,トランスフォーマーベースのアプローチにより,モジュールの性能を向上できることを示す。
- 参考スコア(独自算出の注目度): 9.867364371892693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image de-raining is a critical task in computer vision to improve visibility and enhance the robustness of outdoor vision systems. While recent advances in de-raining methods have achieved remarkable performance, the challenge remains to produce high-quality and visually pleasing de-rained results. In this paper, we present a reference-guided de-raining filter, a transformer network that enhances de-raining results using a reference clean image as guidance. We leverage the capabilities of the proposed module to further refine the images de-rained by existing methods. We validate our method on three datasets and show that our module can improve the performance of existing prior-based, CNN-based, and transformer-based approaches.
- Abstract(参考訳): 画像デレイニングは、コンピュータビジョンにおいて、視認性を改善し、屋外視覚システムの堅牢性を高めるための重要なタスクである。
近年のデライニング手法の進歩は目覚ましい成果を上げているが、高品質で視覚的なデライニング結果を生み出すことが課題である。
本稿では,レファレンスクリーンイメージをガイダンスとして,デレーニング結果を向上するトランスフォーマネットワークであるレファレンス誘導型デレーニングフィルタを提案する。
提案するモジュールの機能を活用して,既存の手法で切り離された画像をさらに洗練する。
提案手法を3つのデータセット上で検証し,既存の事前ベース,CNNベース,トランスフォーマーベースのアプローチにより,モジュールの性能を向上できることを示す。
関連論文リスト
- Adaptive Frequency Enhancement Network for Single Image Deraining [10.64622976628013]
本稿では,単一画像のデライニングに特化して,新しいエンドツーエンド適応周波数拡張ネットワーク(AFENet)を提案する。
我々は、異なるスケールの畳み込みを用いて、画像周波数帯域を適応的に分解し、特徴拡張モジュールを導入し、新しい相互作用モジュールを示す。
このアプローチにより,多様で複雑な降雨パターンを排除し,画像の細部を正確に再構築することが可能になる。
論文 参考訳(メタデータ) (2024-07-19T13:24:05Z) - RainyScape: Unsupervised Rainy Scene Reconstruction using Decoupled Neural Rendering [50.14860376758962]
多視点降雨画像の集合からクリーンなシーンを再構築するための教師なしフレームワークであるRainyScapeを提案する。
ニューラルネットワークのスペクトルバイアス特性に基づいて、まずニューラルネットワークのレンダリングパイプラインを最適化し、低周波シーン表現を得る。
我々は2つのモジュールを協調的に最適化し,適応的指向性勾配に基づく再構成損失によって駆動する。
論文 参考訳(メタデータ) (2024-04-17T14:07:22Z) - Gabor-guided transformer for single image deraining [2.330361251490783]
単一画像デライニングのためのGabor-Guided tranformer(Gabformer)を提案する。
Gaborフィルタによって処理された情報をクエリベクトルに組み込むことにより、ローカルテクスチャ機能へのフォーカスが強化される。
我々の手法は最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-03-12T07:41:51Z) - Contrastive Learning Based Recursive Dynamic Multi-Scale Network for
Image Deraining [47.764883957379745]
雨のストリークは撮影画像の可視性を著しく低下させる。
既存のディープラーニングベースの画像デライニング手法では、手作業で構築されたネットワークを使用して、雨の降った画像から明確な画像への直接投影を学習する。
本稿では,雨天画像と澄んだ画像との相関関係を考察した,対照的な学習に基づく画像デライニング手法を提案する。
論文 参考訳(メタデータ) (2023-05-29T13:51:41Z) - Single Image Deraining via Feature-based Deep Convolutional Neural
Network [13.39233717329633]
データ駆動型アプローチとモデルベースアプローチを組み合わせた,単一画像デラミニングアルゴリズムを提案する。
実験の結果,提案アルゴリズムは質的,定量的両面で最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-05-03T13:12:51Z) - Activating More Pixels in Image Super-Resolution Transformer [53.87533738125943]
トランスフォーマーベースの手法は、画像超解像のような低レベルの視覚タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
提案手法は1dB以上で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-05-09T17:36:58Z) - AdaViT: Adaptive Vision Transformers for Efficient Image Recognition [78.07924262215181]
AdaViTは、パッチ、セルフアテンションヘッド、およびトランスフォーマーブロックを使用するための利用ポリシーを導出する適応フレームワークである。
本手法は,0.8%の精度で,最先端のビジョントランスに比べて2倍以上の効率向上を実現している。
論文 参考訳(メタデータ) (2021-11-30T18:57:02Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - Enhancing Photorealism Enhancement [83.88433283714461]
本稿では,畳み込みネットワークを用いた合成画像のリアリズム向上手法を提案する。
一般的に使用されるデータセットのシーンレイアウトの分布を分析し、重要な方法で異なることを見つけます。
近年のイメージ・ツー・イメージ翻訳法と比較して,安定性とリアリズムの大幅な向上が報告されている。
論文 参考訳(メタデータ) (2021-05-10T19:00:49Z) - Learned Camera Gain and Exposure Control for Improved Visual Feature
Detection and Matching [12.870196901446208]
我々は、環境照明の変化を考慮に入れたデータ駆動型アプローチを探求し、ビジュアル・オドメトリー(VO)や視覚同時像定位マッピング(SLAM)で使用する画像の品質を改善した。
我々は、カメラゲインと露出時間パラメータを予測的に調整するために、深層畳み込みニューラルネットワークモデルを訓練する。
我々は、我々のネットワークが劇的な照明変化を予想し、補うことができるような、広範囲な実世界の実験を通して実証する。
論文 参考訳(メタデータ) (2021-02-08T16:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。