論文の概要: Generalised Co-Salient Object Detection
- arxiv url: http://arxiv.org/abs/2208.09668v1
- Date: Sat, 20 Aug 2022 12:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:17:49.978398
- Title: Generalised Co-Salient Object Detection
- Title(参考訳): 一般化された共塩物体検出
- Authors: Jiawei Liu, Jing Zhang, Kaihao Zhang, Nick Barnes
- Abstract要約: Co-salient Object Detection (CoSOD) は、同じ群のすべての画像に共通の正則な物体が存在するという強い仮定を持つ。
ランダムサンプリングに基づく一般CoSODトレーニング(Generalized CoSOD Training: GCT)戦略を提案し,コサリアントオブジェクトのイメージ間欠如の認識をCoSODモデルに再現する。
- 参考スコア(独自算出の注目度): 54.40834687447633
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Conventional co-salient object detection (CoSOD) has a strong assumption that
\enquote{a common salient object exists in every image of the same group}.
However, the biased assumption contradicts real scenarios where co-salient
objects could be partially or completely absent in a group of images. We
propose a random sampling based Generalised CoSOD Training (GCT) strategy to
distill the awareness of inter-image absence of co-salient object(s) into CoSOD
models. In addition, the random sampling process inherent in GCT enables the
generation of a high-quality uncertainty map, with which we can further
remediate less confident model predictions that are prone to localising
non-common salient objects. To evaluate the generalisation ability of CoSOD
models, we propose two new testing datasets, namely CoCA-Common and CoCA-Zero,
where a common salient object is partially present in the former and completely
absent in the latter. Extensive experiments demonstrate that our proposed
method significantly improves the generalisation ability of CoSOD models on the
two new datasets, while not negatively impacting its performance under the
conventional CoSOD setting. Codes are available at
https://github.com/Carlisle-Liu/GCoSOD.
- Abstract(参考訳): 従来のco-salient object detection (CoSOD) は 'enquote{a common salient object' が同じ群のすべての像に存在するという強い仮定を持つ。
しかし、偏りのある仮定は、画像群において共塩性オブジェクトが部分的にあるいは完全に欠落する実際のシナリオと矛盾する。
ランダムサンプリングに基づく一般CoSODトレーニング(Generalized CoSOD Training: GCT)戦略を提案し,コサリアントオブジェクトのイメージ間欠如の認識をCoSODモデルに再現する。
さらに、GCTに固有のランダムサンプリングプロセスにより、高品質の不確実性マップの生成が可能となり、より信頼性の低いモデル予測が、非一般的な正当性オブジェクトのローカライズに支障をきたすおそれがある。
本稿では,cosodモデルの一般化能力を評価するために,coca-commonとcoca-zeroという2つの新しいテストデータセットを提案する。
実験の結果,提案手法は2つの新しいデータセット上でのCoSODモデルの一般化能力を著しく向上するが,従来のCoSOD設定では性能に悪影響を及ぼさないことがわかった。
コードはhttps://github.com/Carlisle-Liu/GCoSOD.comで入手できる。
関連論文リスト
- Self-supervised co-salient object detection via feature correspondence at multiple scales [27.664016341526988]
本稿では,画像群における2段階の自己教師型手法を用いて,セグメンテーションアノテーションを必要とせず,共起性有色物体(CoSOD)を検出する手法を提案する。
我々は、画像間の局所パッチレベルの特徴対応を計算し、コサレント領域を検出する自己教師ネットワークを訓練する。
3つのCoSODベンチマークデータセットの実験では、我々のモデルは、対応する最先端モデルよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2024-03-17T06:21:21Z) - Discriminative Consensus Mining with A Thousand Groups for More Accurate Co-Salient Object Detection [5.7834917194542035]
Co-Salient Object Detection(CoSOD)は、Salient Object Detection(SOD)とCommon Object(Co-Segmentation)から拡張された、急速に成長するタスクである。
CoSODにはまだ標準的で効率的なトレーニングセットがないため、最近提案されたCoSODメソッドでトレーニングセットを選択するのはカオスである。
この論文では、CoSINe(Co-Saliency of ImageNet)データセットと呼ばれる新しいCoSODトレーニングセットが導入された。
論文 参考訳(メタデータ) (2024-01-15T06:02:24Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Towards Stable Co-saliency Detection and Object Co-segmentation [12.979401244603661]
本稿では,CoSODとCoSEGを同時検出する新しいモデルを提案する。
まず、ダミーオーダー機構(DOM)とリカレントユニット(RU)を含むマルチパス安定リカレントユニット(MSRU)を提案する。
提案したMSRUは、CoSOD(CoSEG)モデルが堅牢な画像間関係をキャプチャするだけでなく、秩序感を低減し、より安定した推論とトレーニングプロセスを実現する。
論文 参考訳(メタデータ) (2022-09-25T03:58:49Z) - GCoNet+: A Stronger Group Collaborative Co-Salient Object Detector [156.43671738038657]
本稿では,GCoNet+と呼ばれる新しいグループ協調学習ネットワークを提案する。
GCoNet+は自然界における共存対象を効果的かつ効率的に識別することができる。
論文 参考訳(メタデータ) (2022-05-30T23:49:19Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Re-thinking Co-Salient Object Detection [170.44471050548827]
Co-Salient Object Detection (CoSOD) は、画像群において共起するサルエントオブジェクトを検出することを目的としている。
既存のCoSODデータセットは、画像の各グループに類似した視覚的外観の有能なオブジェクトが含まれていると仮定して、深刻なデータバイアスを持つことが多い。
我々はCoSOD3kと呼ばれる新しいベンチマークを野生で導入し、大量の意味的コンテキストを必要とする。
論文 参考訳(メタデータ) (2020-07-07T12:20:51Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。