論文の概要: High-resolution Iterative Feedback Network for Camouflaged Object
Detection
- arxiv url: http://arxiv.org/abs/2203.11624v1
- Date: Tue, 22 Mar 2022 11:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 14:15:13.225645
- Title: High-resolution Iterative Feedback Network for Camouflaged Object
Detection
- Title(参考訳): カモフラージュ物体検出のための高分解能反復フィードバックネットワーク
- Authors: Xiaobin Hu, Deng-Ping Fan, Xuebin Qin, Hang Dai, Wenqi Ren, Ying Tai,
Chengjie Wang, Ling Shao
- Abstract要約: カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
- 参考スコア(独自算出の注目度): 128.893782016078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spotting camouflaged objects that are visually assimilated into the
background is tricky for both object detection algorithms and humans who are
usually confused or cheated by the perfectly intrinsic similarities between the
foreground objects and the background surroundings. To tackle this challenge,
we aim to extract the high-resolution texture details to avoid the detail
degradation that causes blurred vision in edges and boundaries. We introduce a
novel HitNet to refine the low-resolution representations by high-resolution
features in an iterative feedback manner, essentially a global loop-based
connection among the multi-scale resolutions. In addition, an iterative
feedback loss is proposed to impose more constraints on each feedback
connection. Extensive experiments on four challenging datasets demonstrate that
our \ourmodel~breaks the performance bottleneck and achieves significant
improvements compared with 29 state-of-the-art methods. To address the data
scarcity in camouflaged scenarios, we provide an application example by
employing cross-domain learning to extract the features that can reflect the
camouflaged object properties and embed the features into salient objects,
thereby generating more camouflaged training samples from the diverse salient
object datasets The code will be available at
https://github.com/HUuxiaobin/HitNet.
- Abstract(参考訳): 背景に視覚的に同化されているカモフラージュされた物体を見つけることは、物体検出アルゴリズムと、通常、前景の物体と背景の環境との完全な本質的な類似性によって混乱または騙されている人間の両方にとって難しい。
この課題に取り組むため,我々は,エッジやバウンダリのぼやけた視覚を引き起こすディテール劣化を回避するために,高解像度テクスチャの詳細を抽出することを目指している。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練するために,HitNetを導入した。
さらに、各フィードバック接続により多くの制約を課すため、反復的なフィードバック損失が提案される。
4つの挑戦的なデータセットに関する広範囲な実験によって、私たちの \ourmodel~はパフォーマンスボトルネックを解消し、29の最先端のメソッドと比較して大幅な改善を達成しています。
カモフラージュされたシナリオにおけるデータの不足に対処するために、クロスドメイン学習を使用して、カモフラージュされたオブジェクトプロパティを反映できる機能を抽出し、その機能をサルトオブジェクトに埋め込むことで、さまざまなサルトオブジェクトデータセットからカモフラージュされたトレーニングサンプルを生成する。
関連論文リスト
- SurANet: Surrounding-Aware Network for Concealed Object Detection via Highly-Efficient Interactive Contrastive Learning Strategy [55.570183323356964]
本稿では,隠蔽物体検出のための新しいSurrounding-Aware Network,すなわちSurANetを提案する。
周辺特徴の差分融合を用いて特徴写像のセマンティクスを強化し,隠蔽対象の強調を行う。
次に、周囲の特徴写像を対照的に学習することで隠蔽対象を識別するために、周囲のコントラストロスを適用した。
論文 参考訳(メタデータ) (2024-10-09T13:02:50Z) - PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - A bioinspired three-stage model for camouflaged object detection [8.11866601771984]
本稿では,1回の繰り返しで粗い部分分割を可能にする3段階モデルを提案する。
本モデルでは, 3つのデコーダを用いて, サブサンプル特徴, 収穫特徴, および高解像度のオリジナル特徴を逐次処理する。
我々のネットワークは、不要な複雑さを伴わずに最先端のCNNベースのネットワークを上回る。
論文 参考訳(メタデータ) (2023-05-22T02:01:48Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Zoom In and Out: A Mixed-scale Triplet Network for Camouflaged Object
Detection [0.0]
本稿では,不明瞭な画像を観察する際の人間の動作を模倣する混合スケール三重項ネットワークbf ZoomNetを提案する。
具体的には、ZoomNetは、ズーム戦略を用いて、設計されたスケール統合ユニットと階層的な混合スケールユニットによって、差別的な混合スケール意味学を学ぶ。
提案したタスクフレンドリなモデルは、4つの公開データセット上の既存の23の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2022-03-05T09:13:52Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Deep Texture-Aware Features for Camouflaged Object Detection [69.84122372541506]
本稿では, テクスチャ認識モジュールを定式化し, 深層畳み込みニューラルネットワークにおけるテクスチャ認識の特徴を学習する。
我々は,キャモフラージュされた物体検出のためのベンチマークデータセット上で,定性的かつ定量的にネットワークを評価した。
論文 参考訳(メタデータ) (2021-02-05T04:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。