論文の概要: Co-Salient Object Detection with Semantic-Level Consensus Extraction and
Dispersion
- arxiv url: http://arxiv.org/abs/2309.07753v1
- Date: Thu, 14 Sep 2023 14:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 12:43:48.191023
- Title: Co-Salient Object Detection with Semantic-Level Consensus Extraction and
Dispersion
- Title(参考訳): セマンティック・レベル・コンセンサス抽出と分散による共分散物体検出
- Authors: Peiran Xu, Yadong Mu
- Abstract要約: 共塩物検出は、各画像の一般的な塩物を明らかにすることを目的としている。
意味レベルのコンセンサスを抽出する階層型トランスフォーマーモジュールを提案する。
Transformerベースの分散モジュールは、異なるシーンにおける共存オブジェクトの変動を考慮している。
- 参考スコア(独自算出の注目度): 27.120768849942145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a group of images, co-salient object detection (CoSOD) aims to
highlight the common salient object in each image. There are two factors
closely related to the success of this task, namely consensus extraction, and
the dispersion of consensus to each image. Most previous works represent the
group consensus using local features, while we instead utilize a hierarchical
Transformer module for extracting semantic-level consensus. Therefore, it can
obtain a more comprehensive representation of the common object category, and
exclude interference from other objects that share local similarities with the
target object. In addition, we propose a Transformer-based dispersion module
that takes into account the variation of the co-salient object in different
scenes. It distributes the consensus to the image feature maps in an
image-specific way while making full use of interactions within the group.
These two modules are integrated with a ViT encoder and an FPN-like decoder to
form an end-to-end trainable network, without additional branch and auxiliary
loss. The proposed method is evaluated on three commonly used CoSOD datasets
and achieves state-of-the-art performance.
- Abstract(参考訳): 画像群が与えられた場合、cosod(co-salient object detection)は、各画像内の共通のサルエントオブジェクトを強調することを目的としている。
この課題の成功には、コンセンサス抽出と、各画像に対するコンセンサス分散という2つの要因が密接に関連している。
これまでのほとんどの研究は局所的な特徴を用いてグループコンセンサスを表現するが、代わりに階層変換モジュールを使って意味レベルのコンセンサスを抽出する。
したがって、共通のオブジェクトカテゴリをより包括的に表現することができ、ターゲットオブジェクトと局所的な類似性を共有する他のオブジェクトからの干渉を排除できる。
さらに,異なるシーンにおける共分散オブジェクトの変動を考慮したTransformerベースの分散モジュールを提案する。
グループ内のインタラクションを最大限に活用しながら、イメージ特有の方法で画像フィーチャーマップにコンセンサスを配布する。
これら2つのモジュールは、ViTエンコーダとFPNライクなデコーダと統合され、追加の分岐と補助損失なしにエンドツーエンドのトレーニング可能なネットワークを形成する。
提案手法は,3つの一般的なCoSODデータセットを用いて評価し,最先端の性能を実現する。
関連論文リスト
- Towards Open-World Co-Salient Object Detection with Generative
Uncertainty-aware Group Selective Exchange-Masking [23.60044777118441]
我々は,CoSODモデルのロバスト性を高めるため,グループ選択的交換マスキング(GSEM)アプローチを導入する。
GSEMは、新しい学習戦略を用いて、各グループから画像のサブセットを選択し、選択した画像を交換する。
そこで我々は,非関連画像による不確実性と,グループ内の残りの関連画像のコンセンサス特性を同時に考慮するために,潜時可変ジェネレータブランチとCoSODトランスフォーマーブランチを設計した。
論文 参考訳(メタデータ) (2023-10-16T10:40:40Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Adaptive Graph Convolution Module for Salient Object Detection [7.278033100480174]
本稿では,複雑なシーンを扱うための適応型グラフ畳み込みモジュール(AGCM)を提案する。
学習可能な領域生成層を用いて入力画像からプロトタイプ特徴を抽出する。
提案したAGCMは,SOD性能を定量的かつ定量的に劇的に向上させる。
論文 参考訳(メタデータ) (2023-03-17T07:07:17Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - Global-and-Local Collaborative Learning for Co-Salient Object Detection [162.62642867056385]
Co-Salient Object Detection (CoSOD)の目標は、2つ以上の関連する画像を含むクエリグループに一般的に現れる有能なオブジェクトを見つけることである。
本稿では,グローバル対応モデリング(GCM)とローカル対応モデリング(LCM)を含む,グローバル・ローカル協調学習アーキテクチャを提案する。
提案したGLNetは3つの一般的なCoSODベンチマークデータセットに基づいて評価され、我々のモデルが小さなデータセット(約3k画像)でトレーニングされた場合、一部の大規模データセット(約8k-200k画像)でトレーニングされた11の最先端の競合製品(約8k-200k画像)を上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-19T14:32:41Z) - Relationformer: A Unified Framework for Image-to-Graph Generation [18.832626244362075]
この研究は、オブジェクトとその関係を共同で予測する一段階トランスフォーマーベースの統合フレームワークであるRelationformerを提案する。
我々は、直接セットベースのオブジェクト予測を活用し、オブジェクト間の相互作用を取り入れて、オブジェクト関係表現を共同で学習する。
複数、多種多様な、複数ドメインのデータセット上で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-19T00:36:59Z) - A Unified Transformer Framework for Group-based Segmentation:
Co-Segmentation, Co-Saliency Detection and Video Salient Object Detection [59.21990697929617]
人間は、ダイナミックな世界に住んでいるので、画像のグループやビデオのフレームから学ぶことによってオブジェクトをマイニングする傾向があります。
従来のアプローチでは、類似したタスクで異なるネットワークを個別に設計するが、互いに適用するのは困難である。
UFO(UnifiedObject Framework for Co-Object Framework)という,これらの問題に対処するための統一フレームワークを導入する。
論文 参考訳(メタデータ) (2022-03-09T13:35:19Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。