論文の概要: Cross-level Attention with Overlapped Windows for Camouflaged Object
Detection
- arxiv url: http://arxiv.org/abs/2311.16618v1
- Date: Tue, 28 Nov 2023 09:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 19:08:12.695804
- Title: Cross-level Attention with Overlapped Windows for Camouflaged Object
Detection
- Title(参考訳): camouflaged object detectionのためのオーバーラップウィンドウによるクロスレベル注意
- Authors: Jiepan Li, Fangxiao Lu, Nan Xue, Zhuohong Li, Hongyan Zhang, Wei He
- Abstract要約: 本稿では,高次特徴によって導かれる低次特徴強調を実現するために,重なり合うウィンドウクロスレベルアテンション(OWinCA)を提案する。
3つの大規模カモフラージュオブジェクトデータセットを用いて行った実験は、OWinCANetが現在の最先端COD法を大幅に上回っていることを示している。
- 参考スコア(独自算出の注目度): 8.421417785949911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged objects adaptively fit their color and texture with the
environment, which makes them indistinguishable from the surroundings. Current
methods revealed that high-level semantic features can highlight the
differences between camouflaged objects and the backgrounds. Consequently, they
integrate high-level semantic features with low-level detailed features for
accurate camouflaged object detection (COD). Unlike previous designs for
multi-level feature fusion, we state that enhancing low-level features is more
impending for COD. In this paper, we propose an overlapped window cross-level
attention (OWinCA) to achieve the low-level feature enhancement guided by the
highest-level features. By sliding an aligned window pair on both the highest-
and low-level feature maps, the high-level semantics are explicitly integrated
into the low-level details via cross-level attention. Additionally, it employs
an overlapped window partition strategy to alleviate the incoherence among
windows, which prevents the loss of global information. These adoptions enable
the proposed OWinCA to enhance low-level features by promoting the separability
of camouflaged objects. The associated proposed OWinCANet fuses these enhanced
multi-level features by simple convolution operation to achieve the final COD.
Experiments conducted on three large-scale COD datasets demonstrate that our
OWinCANet significantly surpasses the current state-of-the-art COD methods.
- Abstract(参考訳): カモフラージュした物体は環境に適応的に色やテクスチャを合わせ、周囲と区別できない。
現在の手法では、高レベルのセマンティック機能は、カモフラージュされたオブジェクトと背景の違いを強調することができる。
その結果、精度の高いcamouflaged object detection(cod)のために、ハイレベルなセマンティック機能と低レベルの詳細な機能を統合する。
従来のマルチレベル特徴融合の設計とは異なり、低レベル特徴の強化はCODにとってより差し迫っていると述べる。
本稿では,高次特徴によって導かれる低次特徴強調を実現するために,重なり合うウィンドウクロスレベル注意(OWinCA)を提案する。
最高レベルと低レベルの両方の機能マップ上でアライメントされたウィンドウペアをスライドすることで、ハイレベルセマンティクスは、クロスレベルアテンションによって、明示的に低レベルの詳細に統合される。
さらに、重なり合うウィンドウ分割戦略を用いて、ウィンドウ間の不整合を緩和し、グローバル情報の損失を防止する。
これらの導入により、提案したOWinCAは、カモフラージュされたオブジェクトの分離性を促進することにより、低レベルの特徴を高めることができる。
関連するOWinCANetは、これらの拡張されたマルチレベル特徴を単純な畳み込み演算によって融合し、最終的なCODを実現する。
3つの大規模CODデータセットで行った実験は、OWinCANetが現在の最先端COD法を大幅に上回っていることを示している。
関連論文リスト
- Adaptive Guidance Learning for Camouflaged Object Detection [23.777432551429396]
本稿では,適応型誘導学習ネットワーク「textitAGLNet」を提案する。
広く使用されている3つのCODベンチマークデータセットの実験により,提案手法が大幅な性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-05-05T06:21:58Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Camouflaged Object Detection via Context-aware Cross-level Fusion [10.942917945534678]
カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
論文 参考訳(メタデータ) (2022-07-27T08:34:16Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Context-aware Cross-level Fusion Network for Camouflaged Object
Detection [23.109969322128958]
本稿では,C2F-Net(Context-aware Cross-level Fusion Network)を提案する。
我々のC2F-Netは有効なCODモデルであり、最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-26T14:03:36Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。