論文の概要: GCoNet+: A Stronger Group Collaborative Co-Salient Object Detector
- arxiv url: http://arxiv.org/abs/2205.15469v2
- Date: Wed, 1 Jun 2022 15:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 09:43:23.649414
- Title: GCoNet+: A Stronger Group Collaborative Co-Salient Object Detector
- Title(参考訳): GCoNet+: より強力なグループ協調型オブジェクト検出器
- Authors: Peng Zheng, Huazhu Fu, Deng-Ping Fan, Qi Fan, Jie Qin and Luc Van Gool
- Abstract要約: 本稿では,GCoNet+と呼ばれる新しいグループ協調学習ネットワークを提案する。
GCoNet+は自然界における共存対象を効果的かつ効率的に識別することができる。
- 参考スコア(独自算出の注目度): 123.23264602570664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a novel end-to-end group collaborative learning
network, termed GCoNet+, which can effectively and efficiently (250 fps)
identify co-salient objects in natural scenes. The proposed GCoNet+ achieves
the new state-of-the-art performance for co-salient object detection (CoSOD)
through mining consensus representations based on the following two essential
criteria: 1) intra-group compactness to better formulate the consistency among
co-salient objects by capturing their inherent shared attributes using our
novel group affinity module (GAM); 2) inter-group separability to effectively
suppress the influence of noisy objects on the output by introducing our new
group collaborating module (GCM) conditioning on the inconsistent consensus. To
further improve the accuracy, we design a series of simple yet effective
components as follows: i) a recurrent auxiliary classification module (RACM)
promoting the model learning at the semantic level; ii) a confidence
enhancement module (CEM) helping the model to improve the quality of the final
predictions; and iii) a group-based symmetric triplet (GST) loss guiding the
model to learn more discriminative features. Extensive experiments on three
challenging benchmarks, i.e., CoCA, CoSOD3k, and CoSal2015, demonstrate that
our GCoNet+ outperforms the existing 12 cutting-edge models. Code has been
released at https://github.com/ZhengPeng7/GCoNet_plus.
- Abstract(参考訳): 本稿では,gconet+と呼ばれる,自然場面における協調的物体を効果的かつ効率的に識別可能な,新しいエンドツーエンドグループ協調学習ネットワークを提案する。
提案したGCoNet+は、以下の2つの重要な基準に基づいて、マイニングコンセンサス表現により、コサリエントオブジェクト検出(CoSOD)のための新しい最先端性能を実現する。
1) 群内コンパクト性は, 群親和性モジュール (GAM) を用いて, 共塩性オブジェクト間の整合性をよりよく定式化する。
2) 新しいグループ協調モジュール(gcm)コンディショニングの導入により, 雑音が出力に与える影響を効果的に抑制できるグループ間分離性について検討した。
精度をさらに向上するため、我々は以下の一連の単純で効果的なコンポーネントを設計する。
一 モデル学習を意味レベルで促進する反復補助分類モジュール(RACM)
二 モデルが最終予測の質を向上させることを支援する信頼性向上モジュール(CEM)
三 より識別的特徴を学ぶためにモデルを導くグループベースの対称三重項損失(gst)
CoCA、CoSOD3k、CoSal2015という3つの挑戦的なベンチマークに関する大規模な実験は、GCoNet+が既存の12の最先端モデルより優れていることを示した。
コードはhttps://github.com/ZhengPeng7/GCoNet_plusでリリースされた。
関連論文リスト
- Precision matters: Precision-aware ensemble for weakly supervised semantic segmentation [14.931551206723041]
Weakly Supervised Semantic (WSSS) は、画像レベルのラベルなどの弱い監督を、セグメンテーションモデルをトレーニングするために採用している。
我々はWSSSに適した高度なアンサンブルアプローチであるORANDNetを提案する。
論文 参考訳(メタデータ) (2024-06-28T03:58:02Z) - Memory-aided Contrastive Consensus Learning for Co-salient Object
Detection [30.92094260367798]
Co-Salient Object Detection (CoSOD) は、関連するソースイメージのグループ内で、一般的な正当性オブジェクトを検出することを目的としている。
本稿では,コサリアントオブジェクトをリアルタイムに検出可能な,メモリ支援コントラスト学習フレームワークを提案する。
最新のCoSODベンチマークでの実験では、私たちのエリートMCCLは13の最先端モデルより優れています。
論文 参考訳(メタデータ) (2023-02-28T10:58:01Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Generalised Co-Salient Object Detection [50.876864826216924]
本稿では,従来のCo-Salient Object Detection(CoSOD)設定における仮定を緩和する新しい設定を提案する。
我々はこの新たな設定を一般共分散オブジェクト検出(GCoSOD)と呼ぶ。
本稿では,コサリエントオブジェクトのイメージ間欠如の認識をCoSODモデルに再現する,新しいランダムサンプリングに基づく一般CoSODトレーニング(Generalized CoSOD Training, GCT)手法を提案する。
論文 参考訳(メタデータ) (2022-08-20T12:23:32Z) - A Unified Two-Stage Group Semantics Propagation and Contrastive Learning
Network for Co-Saliency Detection [11.101111632948394]
CoSODのための2段階グループセマンティクス PropagatIon と Contrastive Learning NETwork (TopicNet)。
本稿では,CoSODのための2段階のセマンティクス PropagatIon と Contrastive Learning NETwork (TopicNet) について述べる。
論文 参考訳(メタデータ) (2022-08-13T10:14:50Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Group Collaborative Learning for Co-Salient Object Detection [152.67721740487937]
協調物体をリアルタイムで検出できる新しいグループ協調学習フレームワーク(GCoNet)を提案する(16ms)。
CoCA、CoSOD3k、Cosal2015の3つの挑戦的なベンチマークに関する大規模な実験は、我々の単純なGCoNetが10の最先端モデルより優れ、新しい最先端モデルを達成することを実証している。
論文 参考訳(メタデータ) (2021-03-15T13:16:03Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。