論文の概要: Discriminative Consensus Mining with A Thousand Groups for More Accurate Co-Salient Object Detection
- arxiv url: http://arxiv.org/abs/2403.12057v1
- Date: Mon, 15 Jan 2024 06:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 07:46:43.508167
- Title: Discriminative Consensus Mining with A Thousand Groups for More Accurate Co-Salient Object Detection
- Title(参考訳): 高精度な共分散物体検出のための数千のグループによる識別的コンセンサスマイニング
- Authors: Peng Zheng,
- Abstract要約: Co-Salient Object Detection(CoSOD)は、Salient Object Detection(SOD)とCommon Object(Co-Segmentation)から拡張された、急速に成長するタスクである。
CoSODにはまだ標準的で効率的なトレーニングセットがないため、最近提案されたCoSODメソッドでトレーニングセットを選択するのはカオスである。
この論文では、CoSINe(Co-Saliency of ImageNet)データセットと呼ばれる新しいCoSODトレーニングセットが導入された。
- 参考スコア(独自算出の注目度): 5.7834917194542035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Co-Salient Object Detection (CoSOD) is a rapidly growing task, extended from Salient Object Detection (SOD) and Common Object Segmentation (Co-Segmentation). It is aimed at detecting the co-occurring salient object in the given image group. Many effective approaches have been proposed on the basis of existing datasets. However, there is still no standard and efficient training set in CoSOD, which makes it chaotic to choose training sets in the recently proposed CoSOD methods. First, the drawbacks of existing training sets in CoSOD are analyzed in a comprehensive way, and potential improvements are provided to solve existing problems to some extent. In particular, in this thesis, a new CoSOD training set is introduced, named Co-Saliency of ImageNet (CoSINe) dataset. The proposed CoSINe is the largest number of groups among all existing CoSOD datasets. The images obtained here span a wide variety in terms of categories, object sizes, etc. In experiments, models trained on CoSINe can achieve significantly better performance with fewer images compared to all existing datasets. Second, to make the most of the proposed CoSINe, a novel CoSOD approach named Hierarchical Instance-aware COnsensus MinEr (HICOME) is proposed, which efficiently mines the consensus feature from different feature levels and discriminates objects of different classes in an object-aware contrastive way. As extensive experiments show, the proposed HICOME achieves SoTA performance on all the existing CoSOD test sets. Several useful training tricks suitable for training CoSOD models are also provided. Third, practical applications are given using the CoSOD technique to show the effectiveness. Finally, the remaining challenges and potential improvements of CoSOD are discussed to inspire related work in the future. The source code, the dataset, and the online demo will be publicly available at github.com/ZhengPeng7/CoSINe.
- Abstract(参考訳): Co-Salient Object Detection (CoSOD) は、Salient Object Detection (SOD) とCommon Object Segmentation (Co-Segmentation) から拡張された、急速に成長するタスクである。
与えられた画像群において、共起する有意な物体を検出することを目的としている。
既存のデータセットに基づいて、多くの効果的なアプローチが提案されている。
しかし、CoSODには標準的かつ効率的なトレーニングセットが存在しないため、最近提案されたCoSOD手法でトレーニングセットを選択するのはカオスである。
まず、CoSODにおける既存のトレーニングセットの欠点を包括的に分析し、既存の問題を解決するための潜在的な改善を提供する。
特にこの論文では、CoSINe(Co-Saliency of ImageNet)データセットと呼ばれる新しいCoSODトレーニングセットが導入されている。
提案されたCoSINeは、既存のCoSODデータセットの中で最大の数のグループである。
ここで得られた画像は、カテゴリ、オブジェクトサイズなど、多種多様である。
実験では、CoSINeでトレーニングされたモデルは、既存のすべてのデータセットと比較して、少ない画像で大幅にパフォーマンスが向上する。
第二に,提案したCoSINeを最大限活用するために,HICOME(Hierarchical Instance-aware Consensus MinEr)と呼ばれる新しいCoSODアプローチを提案する。
広範な実験が示すように、提案したHICOMEは既存のCoSODテストセットのすべてでSoTA性能を達成する。
CoSODモデルのトレーニングに適したいくつかの有用なトレーニングトリックも提供される。
第3に、CoSOD技術を用いて実用的応用を行い、その効果を示す。
最後に,CoSODの今後の課題と潜在的な改善について考察し,今後の課題について考察する。
ソースコード、データセット、オンラインデモはgithub.com/ZhengPeng7/CoSINeで公開されている。
関連論文リスト
- Rank Flow Embedding for Unsupervised and Semi-Supervised Manifold
Learning [9.171175292808144]
本稿では,教師なしおよび半教師付きシナリオに対するランクフロー埋め込み (RFE) という新しい多様体学習アルゴリズムを提案する。
RFEは文脈に敏感な埋め込みを計算し、それはランクベースの処理フローに従って洗練される。
生成された埋め込みは、より効果的な教師なし検索や半教師付き分類に利用することができる。
論文 参考訳(メタデータ) (2023-04-24T21:02:12Z) - Generalised Co-Salient Object Detection [50.876864826216924]
本稿では,従来のCo-Salient Object Detection(CoSOD)設定における仮定を緩和する新しい設定を提案する。
我々はこの新たな設定を一般共分散オブジェクト検出(GCoSOD)と呼ぶ。
本稿では,コサリエントオブジェクトのイメージ間欠如の認識をCoSODモデルに再現する,新しいランダムサンプリングに基づく一般CoSODトレーニング(Generalized CoSOD Training, GCT)手法を提案する。
論文 参考訳(メタデータ) (2022-08-20T12:23:32Z) - Free Lunch for Co-Saliency Detection: Context Adjustment [14.688461235328306]
市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
論文 参考訳(メタデータ) (2021-08-04T14:51:37Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - Re-thinking Co-Salient Object Detection [170.44471050548827]
Co-Salient Object Detection (CoSOD) は、画像群において共起するサルエントオブジェクトを検出することを目的としている。
既存のCoSODデータセットは、画像の各グループに類似した視覚的外観の有能なオブジェクトが含まれていると仮定して、深刻なデータバイアスを持つことが多い。
我々はCoSOD3kと呼ばれる新しいベンチマークを野生で導入し、大量の意味的コンテキストを必要とする。
論文 参考訳(メタデータ) (2020-07-07T12:20:51Z) - Novel Human-Object Interaction Detection via Adversarial Domain
Generalization [103.55143362926388]
本研究では,新たな人-物間相互作用(HOI)検出の問題点を考察し,モデルの一般化能力を向上させることを目的とした。
この課題は、主に対象と述語の大きな構成空間に起因し、全ての対象と述語の組み合わせに対する十分な訓練データが欠如している。
本稿では,予測のためのオブジェクト指向不変の特徴を学習するために,対数領域の一般化の統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-22T22:02:56Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。