論文の概要: Zoom In and Out: A Mixed-scale Triplet Network for Camouflaged Object
Detection
- arxiv url: http://arxiv.org/abs/2203.02688v1
- Date: Sat, 5 Mar 2022 09:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 16:16:11.718770
- Title: Zoom In and Out: A Mixed-scale Triplet Network for Camouflaged Object
Detection
- Title(参考訳): Zoom In and Out:カモフラージュ物体検出のための混合スケールトリプレットネットワーク
- Authors: Pang Youwei, Zhao Xiaoqi, Xiang Tian-Zhu, Zhang Lihe, Lu Huchuan
- Abstract要約: 本稿では,不明瞭な画像を観察する際の人間の動作を模倣する混合スケール三重項ネットワークbf ZoomNetを提案する。
具体的には、ZoomNetは、ズーム戦略を用いて、設計されたスケール統合ユニットと階層的な混合スケールユニットによって、差別的な混合スケール意味学を学ぶ。
提案したタスクフレンドリなモデルは、4つの公開データセット上の既存の23の最先端手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed camouflaged object detection (COD) attempts to segment
objects that are visually blended into their surroundings, which is extremely
complex and difficult in real-world scenarios. Apart from high intrinsic
similarity between the camouflaged objects and their background, the objects
are usually diverse in scale, fuzzy in appearance, and even severely occluded.
To deal with these problems, we propose a mixed-scale triplet network,
\textbf{ZoomNet}, which mimics the behavior of humans when observing vague
images, i.e., zooming in and out. Specifically, our ZoomNet employs the zoom
strategy to learn the discriminative mixed-scale semantics by the designed
scale integration unit and hierarchical mixed-scale unit, which fully explores
imperceptible clues between the candidate objects and background surroundings.
Moreover, considering the uncertainty and ambiguity derived from
indistinguishable textures, we construct a simple yet effective regularization
constraint, uncertainty-aware loss, to promote the model to accurately produce
predictions with higher confidence in candidate regions. Without bells and
whistles, our proposed highly task-friendly model consistently surpasses the
existing 23 state-of-the-art methods on four public datasets. Besides, the
superior performance over the recent cutting-edge models on the SOD task also
verifies the effectiveness and generality of our model. The code will be
available at \url{https://github.com/lartpang/ZoomNet}.
- Abstract(参考訳): 最近提案されたcamouflaged object detection (COD)は、現実のシナリオでは極めて複雑で難しい、視覚的に周囲に混入したオブジェクトを分割しようとする試みである。
カモフラージュされた物体とその背景の間の高い内在的な類似性は別として、通常、物体はスケールが多様であり、外観が曖昧であり、さらにはひどく遮蔽されている。
これらの問題に対処するため,我々は,ぼやけた画像,すなわちズームイン/アウトを観察する時の人間の振る舞いを模倣する混合スケールトリプルトネットワークである \textbf{zoomnet} を提案する。
具体的には、zoomnetでは、設計したスケール統合ユニットと階層的ミックススケールユニットによる識別的ミックススケールセマンティクスを学ぶために、zoom戦略を採用しています。
さらに,不明瞭なテクスチャから生じる不確実性とあいまいさを考慮し,不確実性を考慮した簡易な正則化制約を構築し,候補領域の信頼性の高い予測を正確に生成する。
提案するタスクフレンドリなモデルは,4つの公開データセットにおいて,既存の23の最先端メソッドを一貫して上回っています。
さらに,SODタスクにおける最近の最先端モデルよりも優れた性能を示し,本モデルの有効性と汎用性を検証した。
コードは \url{https://github.com/lartpang/ZoomNet} で入手できる。
関連論文リスト
- Glass Segmentation with Multi Scales and Primary Prediction Guiding [2.66512000865131]
ガラスのような物体は、日々の生活の中でどこにでも見えます。
本稿では,FineRescaling and Merging Module (FRM) から構成されるMGNetを提案する。
高信頼セグメンテーションマップを作成するために,不確実性を考慮した新たな損失関数を用いてモデルを監督する。
論文 参考訳(メタデータ) (2024-02-13T16:14:32Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - A bioinspired three-stage model for camouflaged object detection [8.11866601771984]
本稿では,1回の繰り返しで粗い部分分割を可能にする3段階モデルを提案する。
本モデルでは, 3つのデコーダを用いて, サブサンプル特徴, 収穫特徴, および高解像度のオリジナル特徴を逐次処理する。
我々のネットワークは、不要な複雑さを伴わずに最先端のCNNベースのネットワークを上回る。
論文 参考訳(メタデータ) (2023-05-22T02:01:48Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Fast Camouflaged Object Detection via Edge-based Reversible
Re-calibration Network [17.538512222905087]
本稿では,ERRNetと呼ばれるエッジベースの可逆再校正ネットワークを提案する。
Selective Edge Aggregation(SEA)とReversible Re-calibration Unit(RRU)の2つの革新的な設計が特徴である。
実験の結果,ERRNetは3つのCODデータセットと5つの医用画像セグメンテーションデータセットで既存の最先端ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-11-05T02:03:54Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。