論文の概要: Gradient-Induced Co-Saliency Detection
- arxiv url: http://arxiv.org/abs/2004.13364v3
- Date: Sat, 12 Dec 2020 08:03:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:17:53.193048
- Title: Gradient-Induced Co-Saliency Detection
- Title(参考訳): 勾配誘起コサリエンシー検出
- Authors: Zhao Zhang, Wenda Jin, Jun Xu, Ming-Ming Cheng
- Abstract要約: Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
- 参考スコア(独自算出の注目度): 81.54194063218216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Co-saliency detection (Co-SOD) aims to segment the common salient foreground
in a group of relevant images. In this paper, inspired by human behavior, we
propose a gradient-induced co-saliency detection (GICD) method. We first
abstract a consensus representation for the grouped images in the embedding
space; then, by comparing the single image with consensus representation, we
utilize the feedback gradient information to induce more attention to the
discriminative co-salient features. In addition, due to the lack of Co-SOD
training data, we design a jigsaw training strategy, with which Co-SOD networks
can be trained on general saliency datasets without extra pixel-level
annotations. To evaluate the performance of Co-SOD methods on discovering the
co-salient object among multiple foregrounds, we construct a challenging CoCA
dataset, where each image contains at least one extraneous foreground along
with the co-salient object. Experiments demonstrate that our GICD achieves
state-of-the-art performance. Our codes and dataset are available at
https://mmcheng.net/gicd/.
- Abstract(参考訳): co-saliency detection (co-sod) は、関連画像群に共通サリアンフォアグラウンドを分割することを目的としている。
本稿では,人間の行動に着想を得て,勾配誘起共塩検出(gicd)法を提案する。
まず、埋め込み空間におけるグループ化画像のコンセンサス表現を抽象化し、その1つの画像とコンセンサス表現を比較し、フィードバック勾配情報を用いて、識別的共塩特徴により多くの注意を向ける。
さらに,Co-SODトレーニングデータが不足しているため,余分なピクセルレベルのアノテーションを使わずに,Co-SODネットワークを一般的な唾液度データセット上でトレーニング可能なジグソートレーニング戦略を設計する。
複数のフォアグラウンド間の共塩物発見におけるCo-SOD法の性能を評価するため、各画像が共塩物とともに少なくとも1つの外部フォアグラウンドを含む挑戦的なCoCAデータセットを構築した。
実験は、gicdが最先端のパフォーマンスを達成することを実証する。
私たちのコードとデータセットはhttps://mmcheng.net/gicd/で利用可能です。
関連論文リスト
- CoSD: Collaborative Stance Detection with Contrastive Heterogeneous Topic Graph Learning [18.75039816544345]
我々はCoSD(CoSD)と呼ばれる新しい協調姿勢検出フレームワークを提案する。
CoSDは、テキスト、トピック、スタンスラベル間のトピック認識のセマンティクスと協調的なシグナルを学ぶ。
2つのベンチマークデータセットの実験では、CoSDの最先端検出性能が示されている。
論文 参考訳(メタデータ) (2024-04-26T02:04:05Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Free Lunch for Co-Saliency Detection: Context Adjustment [14.688461235328306]
市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
論文 参考訳(メタデータ) (2021-08-04T14:51:37Z) - Unsupervised Image Segmentation by Mutual Information Maximization and
Adversarial Regularization [7.165364364478119]
InMARS(Information Maximization and Adrial Regularization)と呼ばれる新しい教師なしセマンティックセマンティックセマンティクス手法を提案する。
シーンを知覚群に解析する人間の知覚に触発され、提案手法はまず、入力画像を意味のある領域(スーパーピクセルとも呼ばれる)に分割する。
次に、相互情報最大化(Multual-Information-Maximization)と、それらの領域を意味論的に意味のあるクラスにクラスタ化するための敵対的トレーニング戦略を利用する。
提案手法は2つの非教師付きセマンティックセグメンテーションデータセット上での最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2021-07-01T18:36:27Z) - CoSformer: Detecting Co-Salient Object with Transformers [2.3148470932285665]
Co-Salient Object Detection (CoSOD) は、人間の視覚システムをシミュレートして、関連する画像のグループから共通および重度のオブジェクトを発見することを目的としています。
複数の画像から高精細かつ一般的な視覚パターンを抽出するCo-Salient Object Detection Transformer (CoSformer) ネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-30T02:39:12Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。