論文の概要: DQnet: Cross-Model Detail Querying for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2212.08296v1
- Date: Fri, 16 Dec 2022 06:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:31:22.989058
- Title: DQnet: Cross-Model Detail Querying for Camouflaged Object Detection
- Title(参考訳): dqnet:camouflaged object detectionのためのクロスモデル詳細クエリ
- Authors: Wei Sun, Chengao Liu, Linyan Zhang, Yu Li, Pengxu Wei, Chang Liu,
Jialing Zou, Jianbin Jiao, Qixiang Ye
- Abstract要約: カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 54.82390534024954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged objects are seamlessly blended in with their surroundings, which
brings a challenging detection task in computer vision. Optimizing a
convolutional neural network (CNN) for camouflaged object detection (COD) tends
to activate local discriminative regions while ignoring complete object extent,
causing the partial activation issue which inevitably leads to missing or
redundant regions of objects. In this paper, we argue that partial activation
is caused by the intrinsic characteristics of CNN, where the convolution
operations produce local receptive fields and experience difficulty to capture
long-range feature dependency among image regions. In order to obtain feature
maps that could activate full object extent, keeping the segmental results from
being overwhelmed by noisy features, a novel framework termed Cross-Model
Detail Querying network (DQnet) is proposed. It reasons the relations between
long-range-aware representations and multi-scale local details to make the
enhanced representation fully highlight the object regions and eliminate noise
on non-object regions. Specifically, a vanilla ViT pretrained with
self-supervised learning (SSL) is employed to model long-range dependencies
among image regions. A ResNet is employed to enable learning fine-grained
spatial local details in multiple scales. Then, to effectively retrieve
object-related details, a Relation-Based Querying (RBQ) module is proposed to
explore window-based interactions between the global representations and the
multi-scale local details. Extensive experiments are conducted on the widely
used COD datasets and show that our DQnet outperforms the current
state-of-the-arts.
- Abstract(参考訳): カモフラージュされた物体は周囲とシームレスに混ざり合っており、コンピュータービジョンにおいて困難な検出タスクをもたらす。
カモフラージュされた物体検出(COD)のための畳み込みニューラルネットワーク(CNN)の最適化は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向があり、必然的にオブジェクトの欠落または冗長な領域につながる部分的な活性化問題を引き起こす。
本稿では,畳み込み操作が局所受容野を生成し,画像領域間の長距離特徴依存性を捉えにくいcnnの固有特性が部分活性化の原因であると主張する。
完全なオブジェクトの範囲を活性化できる特徴マップを得るため、セグメント結果がノイズの多い特徴に圧倒されることを防ぎ、新しいフレームワークであるクロスモデル詳細クエリネットワーク(dqnet)を提案する。
長距離対応表現とマルチスケール局所詳細の関係から、拡張された表現は対象領域を完全に強調し、非対象領域のノイズを排除する。
具体的には、イメージ領域間の長距離依存関係をモデル化するために、自己教師付き学習(SSL)で事前訓練されたバニラViTを用いる。
ResNetは、複数のスケールできめ細かい空間的詳細を学習するために使用される。
次に,オブジェクト関連の詳細を効果的に検索するために,グローバル表現とマルチスケールローカル詳細との間のウィンドウベースのインタラクションを探索するRBQモジュールを提案する。
広く使われているcodデータセットで広範な実験が行われ、dqnetが現在の最先端よりも優れています。
関連論文リスト
- United Domain Cognition Network for Salient Object Detection in Optical Remote Sensing Images [21.76732661032257]
周波数領域と空間領域のグローバルローカル情報を共同で探索する新しい統一ドメイン認知ネットワーク(UDCNet)を提案する。
実験結果から提案したUDCNetが24種類の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T04:12:27Z) - Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Addressing Multiple Salient Object Detection via Dual-Space Long-Range
Dependencies [3.8824028205733017]
正常なオブジェクト検出は多くの下流タスクで重要な役割を果たす。
空間空間とチャネル空間の両方に非局所的特徴情報を組み込んだネットワークアーキテクチャを提案する。
複雑なシナリオであっても,本手法は複数の有能な領域を正確に特定できることを示す。
論文 参考訳(メタデータ) (2021-11-04T23:16:53Z) - Local Context Attention for Salient Object Segmentation [5.542044768017415]
本研究では,一様表現型アーキテクチャで局所強化特徴写像を生成するための新しいローカルコンテキスト注意ネットワーク(LCANet)を提案する。
提案するネットワークでは,粗い予測と大域的コンテキストの間の相関特徴写像を計算し,アテンショナル・コリレーション・フィルタ (ACF) モジュールを導入している。
いくつかの有能なオブジェクトセグメンテーションデータセットに対して総合的な実験を行い、提案したLCANetの最先端手法に対する優れた性能を実証した。
論文 参考訳(メタデータ) (2020-09-24T09:20:06Z) - Co-Saliency Spatio-Temporal Interaction Network for Person
Re-Identification in Videos [85.6430597108455]
本稿では,ビデオにおける人物の身元確認のためのCSTNet(Co-Saliency Spatio-Temporal Interaction Network)を提案する。
ビデオフレーム間の共通した有意な前景領域をキャプチャし、そのような領域からの空間的時間的長距離コンテキストの相互依存性を探索する。
CSTNet内の複数の空間的時間的相互作用モジュールを提案し,その特徴と空間的時間的情報相関の空間的・時間的長期的相互依存性を利用した。
論文 参考訳(メタデータ) (2020-04-10T10:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。