論文の概要: Re-thinking Co-Salient Object Detection
- arxiv url: http://arxiv.org/abs/2007.03380v4
- Date: Sun, 2 May 2021 01:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 19:59:21.772484
- Title: Re-thinking Co-Salient Object Detection
- Title(参考訳): 共分散物体検出の再考
- Authors: Deng-Ping Fan, Tengpeng Li, Zheng Lin, Ge-Peng Ji, Dingwen Zhang,
Ming-Ming Cheng, Huazhu Fu, Jianbing Shen
- Abstract要約: Co-Salient Object Detection (CoSOD) は、画像群において共起するサルエントオブジェクトを検出することを目的としている。
既存のCoSODデータセットは、画像の各グループに類似した視覚的外観の有能なオブジェクトが含まれていると仮定して、深刻なデータバイアスを持つことが多い。
我々はCoSOD3kと呼ばれる新しいベンチマークを野生で導入し、大量の意味的コンテキストを必要とする。
- 参考スコア(独自算出の注目度): 170.44471050548827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we conduct a comprehensive study on the co-salient object
detection (CoSOD) problem for images. CoSOD is an emerging and rapidly growing
extension of salient object detection (SOD), which aims to detect the
co-occurring salient objects in a group of images. However, existing CoSOD
datasets often have a serious data bias, assuming that each group of images
contains salient objects of similar visual appearances. This bias can lead to
the ideal settings and effectiveness of models trained on existing datasets,
being impaired in real-life situations, where similarities are usually semantic
or conceptual. To tackle this issue, we first introduce a new benchmark, called
CoSOD3k in the wild, which requires a large amount of semantic context, making
it more challenging than existing CoSOD datasets. Our CoSOD3k consists of 3,316
high-quality, elaborately selected images divided into 160 groups with
hierarchical annotations. The images span a wide range of categories, shapes,
object sizes, and backgrounds. Second, we integrate the existing SOD techniques
to build a unified, trainable CoSOD framework, which is long overdue in this
field. Specifically, we propose a novel CoEG-Net that augments our prior model
EGNet with a co-attention projection strategy to enable fast common information
learning. CoEG-Net fully leverages previous large-scale SOD datasets and
significantly improves the model scalability and stability. Third, we
comprehensively summarize 40 cutting-edge algorithms, benchmarking 18 of them
over three challenging CoSOD datasets (iCoSeg, CoSal2015, and our CoSOD3k), and
reporting more detailed (i.e., group-level) performance analysis. Finally, we
discuss the challenges and future works of CoSOD. We hope that our study will
give a strong boost to growth in the CoSOD community. The benchmark toolbox and
results are available on our project page at http://dpfan.net/CoSOD3K/.
- Abstract(参考訳): 本稿では,画像のコサリアント物体検出(CoSOD)問題に関する包括的研究を行う。
CoSODは、画像群において共起するサルエントオブジェクトを検出することを目的とした、サルエントオブジェクト検出(SOD)の、新しく急速に成長する拡張である。
しかしながら、既存のcosodデータセットは、画像群が類似した視覚的な外観を持つサルエントオブジェクトを含むと仮定して、深刻なデータバイアスを持つことが多い。
このバイアスは、既存のデータセットでトレーニングされたモデルの理想的な設定と有効性につながる可能性がある。
この問題に対処するために、我々はまず、既存のcosodデータセットよりも難しい、大量の意味的コンテキストを必要とするcosod3k in the wildという新しいベンチマークを導入しました。
当社のCoSOD3kは,高品質で精巧に選択された3,316枚の画像から成っている。
画像は、カテゴリ、形状、オブジェクトサイズ、背景など幅広い範囲にまたがっている。
第2に、既存のSOD技術を統合して、この分野で長年遅れてきた、統一的でトレーニング可能なCoSODフレームワークを構築します。
具体的には,より高速な共通情報学習を実現するために,我々の先行モデルEGNetを協調型プロジェクション戦略で拡張する新しいCoEG-Netを提案する。
CoEG-Netは、以前の大規模SODデータセットを完全に活用し、モデルのスケーラビリティと安定性を大幅に改善する。
第3に、40の最先端アルゴリズムを包括的に要約し、3つの挑戦的なCoSODデータセット(iCoSeg、CoSal2015、CoSOD3k)をベンチマークし、より詳細な(グループレベルの)パフォーマンス分析を報告します。
最後に,CoSODの課題と今後の課題について論じる。
我々は、私たちの研究がCoSODコミュニティの成長を強く後押しすることを期待している。
ベンチマークツールボックスと結果は、プロジェクトページhttp://dpfan.net/cosod3k/で閲覧できます。
関連論文リスト
- Concept Guided Co-saliency Objection Detection [22.82243087156918]
ConceptCoSODは、コ・サリエンシ・オブジェクト検出のための新しい概念誘導型アプローチである。
本研究では,コンセプションCoSODにより,背景の乱れや物体の変動がかなり大きい課題において,検出精度が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-12-21T12:47:12Z) - Discriminative Consensus Mining with A Thousand Groups for More Accurate Co-Salient Object Detection [5.7834917194542035]
Co-Salient Object Detection(CoSOD)は、Salient Object Detection(SOD)とCommon Object(Co-Segmentation)から拡張された、急速に成長するタスクである。
CoSODにはまだ標準的で効率的なトレーニングセットがないため、最近提案されたCoSODメソッドでトレーニングセットを選択するのはカオスである。
この論文では、CoSINe(Co-Saliency of ImageNet)データセットと呼ばれる新しいCoSODトレーニングセットが導入された。
論文 参考訳(メタデータ) (2024-01-15T06:02:24Z) - Collaborative Camouflaged Object Detection: A Large-Scale Dataset and
Benchmark [8.185431179739945]
我々はコラボレーティブカモフラーグ型物体検出(CoCOD)と呼ばれる新しい課題について検討する。
CoCODは、関連する画像のグループから、同じ特性を持つカモフラージュされたオブジェクトを同時に検出することを目的としている。
我々は,8,528の高品質で精巧に選択された画像からなる,CoCOD8Kと呼ばれる最初の大規模データセットを構築した。
論文 参考訳(メタデータ) (2023-10-06T13:51:46Z) - Generalised Co-Salient Object Detection [50.876864826216924]
本稿では,従来のCo-Salient Object Detection(CoSOD)設定における仮定を緩和する新しい設定を提案する。
我々はこの新たな設定を一般共分散オブジェクト検出(GCoSOD)と呼ぶ。
本稿では,コサリエントオブジェクトのイメージ間欠如の認識をCoSODモデルに再現する,新しいランダムサンプリングに基づく一般CoSODトレーニング(Generalized CoSOD Training, GCT)手法を提案する。
論文 参考訳(メタデータ) (2022-08-20T12:23:32Z) - Large-scale Unsupervised Semantic Segmentation [163.3568726730319]
本稿では, 大規模無教師付きセマンティックセマンティックセグメンテーション (LUSS) の新たな課題を提案する。
ImageNetデータセットに基づいて、120万のトレーニング画像と40万の高品質なセマンティックセグメンテーションアノテーションを用いた画像Net-Sデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-06T15:02:11Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - CoSformer: Detecting Co-Salient Object with Transformers [2.3148470932285665]
Co-Salient Object Detection (CoSOD) は、人間の視覚システムをシミュレートして、関連する画像のグループから共通および重度のオブジェクトを発見することを目的としています。
複数の画像から高精細かつ一般的な視覚パターンを抽出するCo-Salient Object Detection Transformer (CoSformer) ネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-30T02:39:12Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。