論文の概要: B2Net: Camouflaged Object Detection via Boundary Aware and Boundary Fusion
- arxiv url: http://arxiv.org/abs/2501.00426v1
- Date: Tue, 31 Dec 2024 13:06:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:15:54.219803
- Title: B2Net: Camouflaged Object Detection via Boundary Aware and Boundary Fusion
- Title(参考訳): B2Net:境界認識と境界融合によるカモフラージュ物体検出
- Authors: Junmin Cai, Han Sun, Ningzhong Liu,
- Abstract要約: 得られた境界の精度を高めるために,B2Netという新しいネットワークを提案する。
我々は、より差別的な特徴表現を統合することを目的として、Residual Feature Enhanced Module (RFEM)を提案する。
その後、境界認識モジュール(BAM)を導入し、エッジキューを2回探索する。
最後に,さまざまなスケールの情報をトップダウンで統合するCBFMを設計する。
- 参考スコア(独自算出の注目度): 10.899493419708651
- License:
- Abstract: Camouflaged object detection (COD) aims to identify objects in images that are well hidden in the environment due to their high similarity to the background in terms of texture and color. However, existing most boundary-guided camouflage object detection algorithms tend to generate object boundaries early in the network, and inaccurate edge priors often introduce noises in object detection. Address on this issue, we propose a novel network named B2Net aiming to enhance the accuracy of obtained boundaries by reusing boundary-aware modules at different stages of the network. Specifically, we present a Residual Feature Enhanced Module (RFEM) with the goal of integrating more discriminative feature representations to enhance detection accuracy and reliability. After that, the Boundary Aware Module (BAM) is introduced to explore edge cues twice by integrating spatial information from low-level features and semantic information from high-level features. Finally, we design the Cross-scale Boundary Fusion Module(CBFM) that integrate information across different scales in a top-down manner, merging boundary features with object features to obtain a comprehensive feature representation incorporating boundary information. Extensive experimental results on three challenging benchmark datasets demonstrate that our proposed method B2Net outperforms 15 state-of-art methods under widely used evaluation metrics. Code will be made publicly available.
- Abstract(参考訳): カモフラージュされた物体検出(COD)は、テクスチャや色の点で背景と高い類似性のため、環境によく隠された画像中の物体を識別することを目的としている。
しかし、既存の最も境界誘導されたカモフラージュ物体検出アルゴリズムは、ネットワークの早期にオブジェクト境界を生成する傾向にあり、不正確なエッジは、しばしばオブジェクト検出にノイズをもたらす。
本稿では,ネットワークの異なる段階における境界認識モジュールの再利用により,得られた境界の精度を高めることを目的としたB2Netという新しいネットワークを提案する。
具体的には、より識別性の高い特徴表現を統合し、検出精度と信頼性を高めることを目的として、Residual Feature Enhanced Module (RFEM)を提案する。
その後、境界認識モジュール(BAM)を導入し、低レベル特徴からの空間情報と高レベル特徴からの意味情報を統合することにより、エッジキューを2回探索する。
最後に, 境界情報を組み込んだ包括的特徴表現を得るために, 境界特徴とオブジェクト特徴を融合して, 様々なスケールの情報をトップダウンで統合するクロススケール境界融合モジュール (CBFM) を設計する。
3つの挑戦的ベンチマークデータセットの大規模な実験結果から,提案手法のB2Netは,広く用いられている評価基準の下で15の最先端手法より優れていることが示された。
コードは公開されます。
関連論文リスト
- Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Boundary-semantic collaborative guidance network with dual-stream
feedback mechanism for salient object detection in optical remote sensing
imagery [22.21644705244091]
二重ストリームフィードバック機構を備えた境界意味協調誘導ネットワーク(BSCGNet)を提案する。
BSCGNetは、近年提案されている17の最先端(SOTA)アプローチよりも優れた、挑戦的なシナリオにおいて、明確なアドバンテージを示している。
論文 参考訳(メタデータ) (2023-03-06T03:36:06Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Scribble-based Boundary-aware Network for Weakly Supervised Salient
Object Detection in Remote Sensing Images [10.628932392896374]
スパース・スクリブル・アノテーションからリモートセンシング画像の正当性を予測するために,弱教師付きサルエント・オブジェクト検出フレームワークを提案する。
具体的には,高信頼度オブジェクト境界 (擬似) ラベルによって明示的に制御されるオブジェクト境界意味論を探索する境界対応モジュール (BAM) を設計する。
次に,境界セマンティクスを高次特徴と統合し,スクリブルラベルの監督下での健全な物体検出を誘導する。
論文 参考訳(メタデータ) (2022-02-07T20:32:21Z) - Saliency Detection via Global Context Enhanced Feature Fusion and Edge
Weighted Loss [6.112591965159383]
本研究では,コンテキスト融合デコーダネットワーク(CFDN)と近縁重み付き損失(NEWLoss)関数を提案する。
CFDNは、グローバルコンテキスト情報を統合し、不要な空間情報の影響を抑えることにより、正確な唾液マップを作成する。
NewLossは、オブジェクト境界上の重み写像を生成することによって、追加モジュールなしで曖昧な境界の学習を加速する。
論文 参考訳(メタデータ) (2021-10-13T08:04:55Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。