論文の概要: Group Collaborative Learning for Co-Salient Object Detection
- arxiv url: http://arxiv.org/abs/2104.01108v2
- Date: Sun, 9 May 2021 12:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-08 01:42:03.882640
- Title: Group Collaborative Learning for Co-Salient Object Detection
- Title(参考訳): 協調物体検出のためのグループ協調学習
- Authors: Qi Fan, Deng-Ping Fan, Huazhu Fu, Chi Keung Tang, Ling Shao, Yu-Wing
Tai
- Abstract要約: 協調物体をリアルタイムで検出できる新しいグループ協調学習フレームワーク(GCoNet)を提案する(16ms)。
CoCA、CoSOD3k、Cosal2015の3つの挑戦的なベンチマークに関する大規模な実験は、我々の単純なGCoNetが10の最先端モデルより優れ、新しい最先端モデルを達成することを実証している。
- 参考スコア(独自算出の注目度): 152.67721740487937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel group collaborative learning framework (GCoNet) capable of
detecting co-salient objects in real time (16ms), by simultaneously mining
consensus representations at group level based on the two necessary criteria:
1) intra-group compactness to better formulate the consistency among co-salient
objects by capturing their inherent shared attributes using our novel group
affinity module; 2) inter-group separability to effectively suppress the
influence of noisy objects on the output by introducing our new group
collaborating module conditioning the inconsistent consensus. To learn a better
embedding space without extra computational overhead, we explicitly employ
auxiliary classification supervision. Extensive experiments on three
challenging benchmarks, i.e., CoCA, CoSOD3k, and Cosal2015, demonstrate that
our simple GCoNet outperforms 10 cutting-edge models and achieves the new
state-of-the-art. We demonstrate this paper's new technical contributions on a
number of important downstream computer vision applications including content
aware co-segmentation, co-localization based automatic thumbnails, etc.
- Abstract(参考訳): 本稿では,グループレベルでのコンセンサス表現を同時にマイニングすることにより,協調オブジェクトをリアルタイム(16ms)で検出できるグループ協調学習フレームワーク(gconet)を提案する。
1) グループ内コンパクト性は, グループ親和性モジュールを用いて, グループ固有の共有属性を捕捉することにより, 共塩性オブジェクト間の整合性を改善する。
2) グループ間分離性は, 一致しないコンセンサスを条件とした新たなグループ協調モジュールを導入することで, ノイズオブジェクトの出力への影響を効果的に抑制する。
計算オーバーヘッドを余分に増やすことなく、より良い埋め込み空間を学ぶために、補助的な分類監督を明示的に採用する。
CoCA、CoSOD3k、Cosal2015の3つの挑戦的なベンチマークに関する大規模な実験は、我々の単純なGCoNetが10の最先端モデルより優れ、新しい最先端モデルを達成することを示した。
本稿では,コンテンツ認識協調,コローカライゼーションに基づく自動サムネイルなど,多数の重要なダウンストリームコンピュータビジョンアプリケーションに対する新しい技術貢献を紹介する。
関連論文リスト
- Instance Adaptive Prototypical Contrastive Embedding for Generalized
Zero Shot Learning [11.720039414872296]
一般的なゼロショット学習は、トレーニング中に目に見えないラベルがアクセスできないと仮定して、目に見えないラベルと見えないラベルからサンプルを分類することを目的としている。
GZSLの最近の進歩は、生成ネットワークにコントラッシブラーニングベースの埋め込みを組み込むことによって、加速している。
論文 参考訳(メタデータ) (2023-09-13T14:26:03Z) - Memory-aided Contrastive Consensus Learning for Co-salient Object
Detection [30.92094260367798]
Co-Salient Object Detection (CoSOD) は、関連するソースイメージのグループ内で、一般的な正当性オブジェクトを検出することを目的としている。
本稿では,コサリアントオブジェクトをリアルタイムに検出可能な,メモリ支援コントラスト学習フレームワークを提案する。
最新のCoSODベンチマークでの実験では、私たちのエリートMCCLは13の最先端モデルより優れています。
論文 参考訳(メタデータ) (2023-02-28T10:58:01Z) - Generalised Co-Salient Object Detection [50.876864826216924]
本稿では,従来のCo-Salient Object Detection(CoSOD)設定における仮定を緩和する新しい設定を提案する。
我々はこの新たな設定を一般共分散オブジェクト検出(GCoSOD)と呼ぶ。
本稿では,コサリエントオブジェクトのイメージ間欠如の認識をCoSODモデルに再現する,新しいランダムサンプリングに基づく一般CoSODトレーニング(Generalized CoSOD Training, GCT)手法を提案する。
論文 参考訳(メタデータ) (2022-08-20T12:23:32Z) - GCoNet+: A Stronger Group Collaborative Co-Salient Object Detector [156.43671738038657]
本稿では,GCoNet+と呼ばれる新しいグループ協調学習ネットワークを提案する。
GCoNet+は自然界における共存対象を効果的かつ効率的に識別することができる。
論文 参考訳(メタデータ) (2022-05-30T23:49:19Z) - Stacked Hybrid-Attention and Group Collaborative Learning for Unbiased
Scene Graph Generation [62.96628432641806]
Scene Graph Generationは、まず与えられた画像内の視覚的コンテンツをエンコードし、次にそれらをコンパクトな要約グラフに解析することを目的としている。
まず,モーダル内改良とモーダル間相互作用を容易にする新しいスタック型ハイブリッド・アテンションネットワークを提案する。
次に、デコーダを最適化するための革新的なグループ協調学習戦略を考案する。
論文 参考訳(メタデータ) (2022-03-18T09:14:13Z) - A Framework for Joint Unsupervised Learning of Cluster-Aware Embedding
for Heterogeneous Networks [6.900303913555705]
Heterogeneous Information Network (HIN) は、HINの構造と意味を保存しているHINノードの低次元投影を指す。
本稿では,クラスタ埋め込みとクラスタ認識HIN埋め込みの併用学習を提案する。
論文 参考訳(メタデータ) (2021-08-09T11:36:36Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。