論文の概要: Memory-aided Contrastive Consensus Learning for Co-salient Object
Detection
- arxiv url: http://arxiv.org/abs/2302.14485v1
- Date: Tue, 28 Feb 2023 10:58:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 16:51:34.660961
- Title: Memory-aided Contrastive Consensus Learning for Co-salient Object
Detection
- Title(参考訳): 協調物体検出のためのメモリ支援コンセンサス学習
- Authors: Peng Zheng, Jie Qin, Shuo Wang, Tian-Zhu Xiang, Huan Xiong
- Abstract要約: Co-Salient Object Detection (CoSOD) は、関連するソースイメージのグループ内で、一般的な正当性オブジェクトを検出することを目的としている。
本稿では,コサリアントオブジェクトをリアルタイムに検出可能な,メモリ支援コントラスト学習フレームワークを提案する。
最新のCoSODベンチマークでの実験では、私たちのエリートMCCLは13の最先端モデルより優れています。
- 参考スコア(独自算出の注目度): 30.92094260367798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Co-Salient Object Detection (CoSOD) aims at detecting common salient objects
within a group of relevant source images. Most of the latest works employ the
attention mechanism for finding common objects. To achieve accurate CoSOD
results with high-quality maps and high efficiency, we propose a novel
Memory-aided Contrastive Consensus Learning (MCCL) framework, which is capable
of effectively detecting co-salient objects in real time (~110 fps). To learn
better group consensus, we propose the Group Consensus Aggregation Module
(GCAM) to abstract the common features of each image group; meanwhile, to make
the consensus representation more discriminative, we introduce the Memory-based
Contrastive Module (MCM), which saves and updates the consensus of images from
different groups in a queue of memories. Finally, to improve the quality and
integrity of the predicted maps, we develop an Adversarial Integrity Learning
(AIL) strategy to make the segmented regions more likely composed of complete
objects with less surrounding noise. Extensive experiments on all the latest
CoSOD benchmarks demonstrate that our lite MCCL outperforms 13 cutting-edge
models, achieving the new state of the art (~5.9% and ~6.2% improvement in
S-measure on CoSOD3k and CoSal2015, respectively). Our source codes, saliency
maps, and online demos are publicly available at
https://github.com/ZhengPeng7/MCCL.
- Abstract(参考訳): cosod(co-salient object detection)は、関連するソースイメージのグループ内で共通のサルエントオブジェクトを検出することを目的としている。
最新の研究のほとんどは、共通のオブジェクトを見つけるための注意メカニズムを採用している。
高品質な地図と高効率で正確なCoSOD結果を実現するために,コサレントオブジェクト(約110fps)をリアルタイムに検出可能な,メモリ支援コントラスト学習(MCCL)フレームワークを提案する。
グループコンセンサスを改善するために,各画像群の共通特徴を抽象化するグループコンセンサスアグリゲーションモジュール (gcam) を提案する。一方,コンセンサス表現をより識別的にするために,メモリキュー内の異なるグループからのイメージコンセンサスを保存・更新するメモリベースコントラストモジュール (mcm) を導入する。
最後に,予測地図の品質と整合性を改善するため,周辺雑音の少ない完全物体からなるセグメント領域をより高次に構築するAdversarial Integrity Learning(AIL)戦略を開発した。
最新のCoSODベンチマークに関する大規模な実験により、私たちのMCCLは13の最先端モデルより優れており、新しい技術(それぞれCoSOD3kとCoSal2015のS測定の改善は5.9%と6.2%)を達成している。
私たちのソースコード、唾液マップ、オンラインデモはhttps://github.com/ZhengPeng7/MCCLで公開されています。
関連論文リスト
- Collaborative Camouflaged Object Detection: A Large-Scale Dataset and
Benchmark [8.185431179739945]
我々はコラボレーティブカモフラーグ型物体検出(CoCOD)と呼ばれる新しい課題について検討する。
CoCODは、関連する画像のグループから、同じ特性を持つカモフラージュされたオブジェクトを同時に検出することを目的としている。
我々は,8,528の高品質で精巧に選択された画像からなる,CoCOD8Kと呼ばれる最初の大規模データセットを構築した。
論文 参考訳(メタデータ) (2023-10-06T13:51:46Z) - COMNet: Co-Occurrent Matching for Weakly Supervised Semantic
Segmentation [13.244183864948848]
我々は,CAMの品質を向上し,オブジェクトの全体に対して注意を払うためにネットワークを強制する,新しいコオカレントマッチングネットワーク(COMNet)を提案する。
具体的には、共通クラスを含むペア画像のマッチングを行い、対応する領域を強化し、単一の画像上にマッチングを構築し、対象領域を横断する意味的特徴を伝達する。
The experiment on the Pascal VOC 2012 and MS-COCO datasets shows our network can effective boost the performance of the baseline model and a new-of-the-art performance。
論文 参考訳(メタデータ) (2023-09-29T03:55:24Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - GCoNet+: A Stronger Group Collaborative Co-Salient Object Detector [156.43671738038657]
本稿では,GCoNet+と呼ばれる新しいグループ協調学習ネットワークを提案する。
GCoNet+は自然界における共存対象を効果的かつ効率的に識別することができる。
論文 参考訳(メタデータ) (2022-05-30T23:49:19Z) - Global-and-Local Collaborative Learning for Co-Salient Object Detection [162.62642867056385]
Co-Salient Object Detection (CoSOD)の目標は、2つ以上の関連する画像を含むクエリグループに一般的に現れる有能なオブジェクトを見つけることである。
本稿では,グローバル対応モデリング(GCM)とローカル対応モデリング(LCM)を含む,グローバル・ローカル協調学習アーキテクチャを提案する。
提案したGLNetは3つの一般的なCoSODベンチマークデータセットに基づいて評価され、我々のモデルが小さなデータセット(約3k画像)でトレーニングされた場合、一部の大規模データセット(約8k-200k画像)でトレーニングされた11の最先端の競合製品(約8k-200k画像)を上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-19T14:32:41Z) - A Unified Transformer Framework for Group-based Segmentation:
Co-Segmentation, Co-Saliency Detection and Video Salient Object Detection [59.21990697929617]
人間は、ダイナミックな世界に住んでいるので、画像のグループやビデオのフレームから学ぶことによってオブジェクトをマイニングする傾向があります。
従来のアプローチでは、類似したタスクで異なるネットワークを個別に設計するが、互いに適用するのは困難である。
UFO(UnifiedObject Framework for Co-Object Framework)という,これらの問題に対処するための統一フレームワークを導入する。
論文 参考訳(メタデータ) (2022-03-09T13:35:19Z) - Re-thinking Co-Salient Object Detection [170.44471050548827]
Co-Salient Object Detection (CoSOD) は、画像群において共起するサルエントオブジェクトを検出することを目的としている。
既存のCoSODデータセットは、画像の各グループに類似した視覚的外観の有能なオブジェクトが含まれていると仮定して、深刻なデータバイアスを持つことが多い。
我々はCoSOD3kと呼ばれる新しいベンチマークを野生で導入し、大量の意味的コンテキストを必要とする。
論文 参考訳(メタデータ) (2020-07-07T12:20:51Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。