論文の概要: Co-Salient Object Detection with Co-Representation Purification
- arxiv url: http://arxiv.org/abs/2303.07670v1
- Date: Tue, 14 Mar 2023 07:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 16:07:20.355805
- Title: Co-Salient Object Detection with Co-Representation Purification
- Title(参考訳): 共発現浄化による共塩物体検出
- Authors: Ziyue Zhu, Zhao Zhang, Zheng Lin, Xing Sun, Ming-Ming Cheng
- Abstract要約: Co-Salient Object Detection (Co-SOD) は、関連画像のグループ内の共通オブジェクトを発見することを目的としている。
現在のCo-SOD法では、コサリアンオブジェクトに関連のない情報がコレギュレーションに含まれるほど、十分な注意を払わない。
雑音のない共表現を探索するCoRP法を提案する。
- 参考スコア(独自算出の注目度): 80.2644026634024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Co-salient object detection (Co-SOD) aims at discovering the common objects
in a group of relevant images. Mining a co-representation is essential for
locating co-salient objects. Unfortunately, the current Co-SOD method does not
pay enough attention that the information not related to the co-salient object
is included in the co-representation. Such irrelevant information in the
co-representation interferes with its locating of co-salient objects. In this
paper, we propose a Co-Representation Purification (CoRP) method aiming at
searching noise-free co-representation. We search a few pixel-wise embeddings
probably belonging to co-salient regions. These embeddings constitute our
co-representation and guide our prediction. For obtaining purer
co-representation, we use the prediction to iteratively reduce irrelevant
embeddings in our co-representation. Experiments on three datasets demonstrate
that our CoRP achieves state-of-the-art performances on the benchmark datasets.
Our source code is available at https://github.com/ZZY816/CoRP.
- Abstract(参考訳): Co-Salient Object Detection (Co-SOD) は、関連画像のグループ内の共通オブジェクトを発見することを目的としている。
co-representation のマイニングは co-salient オブジェクトの配置に不可欠である。
残念なことに、現在のCo-SOD法では、コサリエントオブジェクトに関連のない情報が共表現に含まれるほど、十分な注意を払わない。
コリート表現におけるそのような無関係な情報は、コリート対象の位置を妨害する。
本稿では,雑音のない共表現探索を目的としたCoRP(Co-Representation Purification)手法を提案する。
我々は、おそらく共存領域に属するいくつかのピクセルワイド埋め込みを探索する。
これらの埋め込みは私たちの共表現を構成し、予測を導く。
清浄な共表現を得るため、予測を用いて共表現における無関係な埋め込みを反復的に減少させる。
3つのデータセットの実験は、私たちのCoRPがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す。
ソースコードはhttps://github.com/zzy816/corpで入手できます。
関連論文リスト
- SegGPT Meets Co-Saliency Scene [88.53031109255595]
我々はまず,SegGPTを協調型オブジェクト検出の問題を解決するためのフレームワークを設計する。
次のステップとして、SegGPTの性能を3つの利用可能なデータセット上での共分散オブジェクト検出の問題に基づいて評価する。
我々は、コ・サリエンシ・シーンが、コ・サリエンシ・イメージのグループ内のコンテキストの相違により、SegGPTに挑戦することを示す。
論文 参考訳(メタデータ) (2023-05-08T00:19:05Z) - Generalised Co-Salient Object Detection [50.876864826216924]
本稿では,従来のCo-Salient Object Detection(CoSOD)設定における仮定を緩和する新しい設定を提案する。
我々はこの新たな設定を一般共分散オブジェクト検出(GCoSOD)と呼ぶ。
本稿では,コサリエントオブジェクトのイメージ間欠如の認識をCoSODモデルに再現する,新しいランダムサンプリングに基づく一般CoSODトレーニング(Generalized CoSOD Training, GCT)手法を提案する。
論文 参考訳(メタデータ) (2022-08-20T12:23:32Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - BORM: Bayesian Object Relation Model for Indoor Scene Recognition [3.3274747298291216]
室内のシーン表現に意味のあるオブジェクト表現を活用することを提案する。
まず,改良されたオブジェクトモデル(IOM)をベースラインとして,屋内シーンに関連するリッチなオブジェクトカテゴリを持つADE20Kデータセット上で事前学習したシーン解析アルゴリズムを導入することにより,オブジェクトの知識を充実させる。
オブジェクトの共起とペアのオブジェクト関係を解析するために、ベイズ的オブジェクト関係モデル(BORM)としてベイズ的視点からIOMを定式化する。
論文 参考訳(メタデータ) (2021-08-01T08:31:18Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。