論文の概要: CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection
- arxiv url: http://arxiv.org/abs/2011.04887v1
- Date: Tue, 10 Nov 2020 04:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:42:48.654893
- Title: CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection
- Title(参考訳): CoADNet:Co-Salient Object Detectionのための協調集約分散ネットワーク
- Authors: Qijian Zhang, Runmin Cong, Junhui Hou, Chongyi Li, Yao Zhao
- Abstract要約: Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
- 参考スコア(独自算出の注目度): 91.91911418421086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Co-Salient Object Detection (CoSOD) aims at discovering salient objects that
repeatedly appear in a given query group containing two or more relevant
images. One challenging issue is how to effectively capture co-saliency cues by
modeling and exploiting inter-image relationships. In this paper, we present an
end-to-end collaborative aggregation-and-distribution network (CoADNet) to
capture both salient and repetitive visual patterns from multiple images.
First, we integrate saliency priors into the backbone features to suppress the
redundant background information through an online intra-saliency guidance
structure. After that, we design a two-stage aggregate-and-distribute
architecture to explore group-wise semantic interactions and produce the
co-saliency features. In the first stage, we propose a group-attentional
semantic aggregation module that models inter-image relationships to generate
the group-wise semantic representations. In the second stage, we propose a
gated group distribution module that adaptively distributes the learned group
semantics to different individuals in a dynamic gating mechanism. Finally, we
develop a group consistency preserving decoder tailored for the CoSOD task,
which maintains group constraints during feature decoding to predict more
consistent full-resolution co-saliency maps. The proposed CoADNet is evaluated
on four prevailing CoSOD benchmark datasets, which demonstrates the remarkable
performance improvement over ten state-of-the-art competitors.
- Abstract(参考訳): cosod(co-salient object detection)は、2つ以上の関連画像を含む所定のクエリグループで繰り返し現れるサルエントオブジェクトを見つけることを目的としている。
課題の1つは、画像間の関係をモデル化し活用することで、協力関係の手がかりを効果的に捉える方法である。
本稿では,複数画像から有能かつ反復的な視覚パターンを抽出する,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
まず,サリエンシ前処理をバックボーン機能に統合し,オンラインのサリエンシ内誘導構造を通じて冗長な背景情報を抑制する。
その後、2段階のアグリゲート・アンド・ディストリビュート・アーキテクチャを設計し,グループ間の意味的相互作用を探索し,協調性を実現する。
第1段階では,画像間関係をモデル化し,グループ間意味表現を生成するグループアグリゲーションモジュールを提案する。
第2段階では,学習群の意味を動的ゲーティング機構において異なる個人に適応的に分配するゲート群分散モジュールを提案する。
最後に、cosodタスク用に調整されたグループ一貫性保存デコーダを開発し、機能デコード中にグループ制約を維持し、より一貫性のあるフルレゾリューションコサリエンシーマップを予測する。
提案したCoADNetは4つの一般的なCoSODベンチマークデータセットで評価され、最先端の競合10社に対する顕著なパフォーマンス改善を示している。
関連論文リスト
- Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - IDRNet: Intervention-Driven Relation Network for Semantic Segmentation [34.09179171102469]
同時進行の視覚パターンは、画素関係モデリングが密接な予測タスクを促進することを示唆している。
印象的な結果にもかかわらず、既存のパラダイムは、しばしば不適切または効果的な文脈情報集約に悩まされる。
我々は,textbfIntervention-textbfDriven textbfRelation textbfNetworkを提案する。
論文 参考訳(メタデータ) (2023-10-16T18:37:33Z) - Weakly-Supervised Concealed Object Segmentation with SAM-based Pseudo
Labeling and Multi-scale Feature Grouping [40.07070188661184]
Wakly-Supervised Concealed Object (WSCOS) は、周囲の環境とうまく融合したオブジェクトを分割することを目的としている。
内在的な類似性のため、背景から隠された物体を区別することは困難である。
これら2つの課題に対処する新しいWSCOS手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T14:31:34Z) - A Unified Two-Stage Group Semantics Propagation and Contrastive Learning
Network for Co-Saliency Detection [11.101111632948394]
CoSODのための2段階グループセマンティクス PropagatIon と Contrastive Learning NETwork (TopicNet)。
本稿では,CoSODのための2段階のセマンティクス PropagatIon と Contrastive Learning NETwork (TopicNet) について述べる。
論文 参考訳(メタデータ) (2022-08-13T10:14:50Z) - Global-and-Local Collaborative Learning for Co-Salient Object Detection [162.62642867056385]
Co-Salient Object Detection (CoSOD)の目標は、2つ以上の関連する画像を含むクエリグループに一般的に現れる有能なオブジェクトを見つけることである。
本稿では,グローバル対応モデリング(GCM)とローカル対応モデリング(LCM)を含む,グローバル・ローカル協調学習アーキテクチャを提案する。
提案したGLNetは3つの一般的なCoSODベンチマークデータセットに基づいて評価され、我々のモデルが小さなデータセット(約3k画像)でトレーニングされた場合、一部の大規模データセット(約8k-200k画像)でトレーニングされた11の最先端の競合製品(約8k-200k画像)を上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-19T14:32:41Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z) - Bidirectional Graph Reasoning Network for Panoptic Segmentation [126.06251745669107]
本稿では,BGRNet(Bidirectional Graph Reasoning Network)を導入し,前景物と背景物間のモジュラー内およびモジュラー間関係について検討する。
BGRNetはまず、インスタンスとセマンティックセグメンテーションの両方でイメージ固有のグラフを構築し、提案レベルとクラスレベルで柔軟な推論を可能にする。
論文 参考訳(メタデータ) (2020-04-14T02:32:10Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。