論文の概要: LMQFormer: A Laplace-Prior-Guided Mask Query Transformer for Lightweight
Snow Removal
- arxiv url: http://arxiv.org/abs/2210.04787v3
- Date: Wed, 12 Oct 2022 07:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 11:59:28.769460
- Title: LMQFormer: A Laplace-Prior-Guided Mask Query Transformer for Lightweight
Snow Removal
- Title(参考訳): LMQFormer:軽量除雪用ラプラスガイド型マスククエリトランス
- Authors: Junhong Lin, Nanfeng Jiang, Zhentao Zhang, Weiling Chen and Tiesong
Zhao
- Abstract要約: 我々はLaplace Mask Query Transformer (LMQFormer) と呼ばれる軽量だが高効率な除雪ネットワークを提案する。
まず,雪の事前知識として粗いマスクを生成するためのLaplace-VQVAEを提案する。このマスクをデータセットに使用するのではなく,雪の情報エントロピーと回復の計算コストの両面を削減することを目的としている。
第3に、粗いマスクを特定の数のクエリに変換するDMQA(Duplicated Mask Query Attention)を開発し、パラメータを減らしたMQFormerの注意領域を制限する。
- 参考スコア(独自算出の注目度): 22.047433543495867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Snow removal aims to locate snow areas and recover clean images without
repairing traces. Unlike the regularity and semitransparency of rain, snow with
various patterns and degradations seriously occludes the background. As a
result, the state-of-the-art snow removal methods usually retains a large
parameter size. In this paper, we propose a lightweight but high-efficient snow
removal network called Laplace Mask Query Transformer (LMQFormer). Firstly, we
present a Laplace-VQVAE to generate a coarse mask as prior knowledge of snow.
Instead of using the mask in dataset, we aim at reducing both the information
entropy of snow and the computational cost of recovery. Secondly, we design a
Mask Query Transformer (MQFormer) to remove snow with the coarse mask, where we
use two parallel encoders and a hybrid decoder to learn extensive snow features
under lightweight requirements. Thirdly, we develop a Duplicated Mask Query
Attention (DMQA) that converts the coarse mask into a specific number of
queries, which constraint the attention areas of MQFormer with reduced
parameters. Experimental results in popular datasets have demonstrated the
efficiency of our proposed model, which achieves the state-of-the-art snow
removal quality with significantly reduced parameters and the lowest running
time.
- Abstract(参考訳): 除雪は、雪の地域を見つけ、痕跡を修復することなくクリーンな画像を復元することを目的としている。
雨の規則性や半透明性とは異なり、様々なパターンと劣化の降雪は背景をひどく損なう。
その結果、最先端の除雪方法は、通常、大きなパラメータサイズを保持する。
本稿では,Laplace Mask Query Transformer (LMQFormer) と呼ばれる軽量だが高効率な除雪ネットワークを提案する。
まず,雪の先行知識として粗いマスクを生成するためのLaplace-VQVAEを提案する。
マスクをデータセットに使用する代わりに、雪の情報エントロピーと回復の計算コストの両方を削減することを目的としている。
第2に、粗いマスクで雪を取り除くためにMask Query Transformer(MQFormer)を設計し、2つの並列エンコーダとハイブリッドデコーダを使用して、軽量な要求下で広範な雪の特徴を学習する。
第3に、粗いマスクを特定の数のクエリに変換するDMQA(Duplicated Mask Query Attention)を開発し、パラメータを減らしたMQFormerの注意領域を制限する。
また, 提案モデルの有効性を実証し, パラメータが大幅に減少し, 走行時間が低くなることにより, 最先端の除雪性能が得られることを示した。
関連論文リスト
- MaskLLM: Learnable Semi-Structured Sparsity for Large Language Models [91.4190318047519]
この研究は、大規模言語モデルにおける半構造化(あるいはN:M'')のスパーシティを確立する学習可能なプルーニング手法であるMaskLLMを紹介した。
MaskLLMはGumbel Softmaxサンプリングを通じて学習可能な分布としてN:Mパターンを明示的にモデル化する。
論文 参考訳(メタデータ) (2024-09-26T02:37:41Z) - MaskInversion: Localized Embeddings via Optimization of Explainability Maps [49.50785637749757]
MaskInversionは、テスト時にマスクによって指定されたクエリ画像領域に対するコンテキスト認識の埋め込みを生成する。
オープン語彙のクラス検索、表現理解の参照、局所的なキャプションや画像生成など、幅広いタスクに使用することができる。
論文 参考訳(メタデータ) (2024-07-29T14:21:07Z) - Toward a Deeper Understanding: RetNet Viewed through Convolution [25.8904146140577]
Vision Transformer (ViT)はCNNよりもグローバルな依存関係を学習できるが、CNN固有のローカリティは高価なトレーニングリソースに取って代わることができる。
本稿では、CNNの観点からRetNetの有効性について検討し、視覚領域に合わせたRetNetの変種を示す。
本稿では,1つのマスクが2つの学習可能なパラメータしか持たない新しいガウス混合マスク(GMM)を提案する。
論文 参考訳(メタデータ) (2023-09-11T10:54:22Z) - MP-Former: Mask-Piloted Transformer for Image Segmentation [16.620469868310288]
Mask2Formerはデコーダ層間の一貫性のないマスク予測に悩まされている。
本手法では,マスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスのマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスをマスマスマスマストした。
論文 参考訳(メタデータ) (2023-03-13T17:57:59Z) - Towards Improved Input Masking for Convolutional Neural Networks [66.99060157800403]
層マスキングと呼ぶCNNのための新しいマスキング手法を提案する。
本手法は,マスク形状や色がモデル出力に与える影響を排除あるいは最小化することができることを示す。
また,マスクの形状がクラスに関する情報を漏洩させる可能性を示し,クラス関連特徴に対するモデル依存度の推定に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2022-11-26T19:31:49Z) - MixMask: Revisiting Masking Strategy for Siamese ConvNets [23.946791390657875]
この研究は、textbfMixMaskと呼ばれる新しいフィリングベースのマスキング手法を導入している。
提案手法は,消去された領域を別の画像からのコンテンツに置き換えることにより,従来のマスキング手法で見られる情報の枯渇を効果的に解消する。
我々は,線形探索,半教師付きおよび教師付きファインタニング,オブジェクト検出,セグメンテーションなどの領域におけるフレームワークの性能向上を実証的に検証した。
論文 参考訳(メタデータ) (2022-10-20T17:54:03Z) - Snow Mask Guided Adaptive Residual Network for Image Snow Removal [21.228758052455273]
雪は、高レベルのコンピュータビジョンタスクのパフォーマンスに深刻な影響を与える非常に一般的な大気現象である。
SMGARN(Snow Mask Guided Adaptive Residual Network)を提案する。
Mask-Net、Guidance-Fusion Network (GF-Net)、Reconstruct-Netの3部で構成されている。
SMGARNは既存の除雪方法よりも数値的に優れており、再構成された画像は視覚的コントラストにおいてより鮮明である。
論文 参考訳(メタデータ) (2022-07-11T10:30:46Z) - Layered Depth Refinement with Mask Guidance [61.10654666344419]
汎用マスクを用いてSIDEモデルの深度予測を洗練させるマスク誘導深度改善の新しい問題を定式化する。
本フレームワークは,奥行きマップをマスクと逆マスクで表される2つの別々の層に分解し,層状改質・塗装・塗装を行う。
本手法は,内面境界領域と外面境界領域の深度を正確に補正し,異なる種類のマスクや初期深度予測に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-06-07T06:42:44Z) - RePaint: Inpainting using Denoising Diffusion Probabilistic Models [161.74792336127345]
Free-form Inpaintingは任意のバイナリマスクで指定された領域のイメージに新しいコンテンツを追加するタスクである。
RePaint: A Denoising Probabilistic Model (DDPM) を用いた塗装手法を提案する。
本手法は,標準的なマスクと極端マスクを用いて,顔と汎用画像の塗装の両面で検証する。
論文 参考訳(メタデータ) (2022-01-24T18:40:15Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。