論文の概要: Discriminative Co-Saliency and Background Mining Transformer for
Co-Salient Object Detection
- arxiv url: http://arxiv.org/abs/2305.00514v1
- Date: Sun, 30 Apr 2023 15:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 14:58:12.903633
- Title: Discriminative Co-Saliency and Background Mining Transformer for
Co-Salient Object Detection
- Title(参考訳): Co-Salient Object Detection のための差別的共分散とバックグラウンドマイニング変換器
- Authors: Long Li, Junwei Han, Ni Zhang, Nian Liu, Salman Khan, Hisham
Cholakkal, Rao Muhammad Anwer, and Fahad Shahbaz Khan
- Abstract要約: 我々は差別的共存とバックグラウンドマイニング・トランスフォーマー・フレームワーク(DMT)を提案する。
我々は2種類の事前定義されたトークンを用いて、コントラスト誘起画素間相関モジュールとコサリエンストークン間相関モジュールを用いて、コサリエンシと背景情報をマイニングする。
3つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 111.04994415248736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most previous co-salient object detection works mainly focus on extracting
co-salient cues via mining the consistency relations across images while
ignoring explicit exploration of background regions. In this paper, we propose
a Discriminative co-saliency and background Mining Transformer framework (DMT)
based on several economical multi-grained correlation modules to explicitly
mine both co-saliency and background information and effectively model their
discrimination. Specifically, we first propose a region-to-region correlation
module for introducing inter-image relations to pixel-wise segmentation
features while maintaining computational efficiency. Then, we use two types of
pre-defined tokens to mine co-saliency and background information via our
proposed contrast-induced pixel-to-token correlation and co-saliency
token-to-token correlation modules. We also design a token-guided feature
refinement module to enhance the discriminability of the segmentation features
under the guidance of the learned tokens. We perform iterative mutual promotion
for the segmentation feature extraction and token construction. Experimental
results on three benchmark datasets demonstrate the effectiveness of our
proposed method. The source code is available at:
https://github.com/dragonlee258079/DMT.
- Abstract(参考訳): 従来の共塩物体検出は、画像間の一貫性関係をマイニングし、背景領域の明示的な探索を無視して共塩手がかりを抽出することに集中している。
本稿では,複数の経済的な多粒度相関モジュールを基盤とした判別的コサリエンシー・バックグラウンドマイニングトランスフォーマー(dmt)フレームワークを提案し,コサリエンシーと背景情報の両方を明示的に抽出し,その識別を効果的にモデル化する。
具体的には,まず,計算効率を維持しつつ画素分割特徴に画像間関係を導入するための領域間相関モジュールを提案する。
次に,2種類の事前定義されたトークンを用いて,コントラストによる画素間相関とコサリエンストークン間相関モジュールを用いて,コサリエンスと背景情報をマイニングする。
また,学習トークンの指導の下,セグメンテーション特徴の識別性を高めるために,トークン案内特徴リファインメントモジュールを設計した。
セグメンテーション特徴抽出とトークン構築のための反復的な相互促進を行う。
3つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
ソースコードはhttps://github.com/dragonlee258079/dmt。
関連論文リスト
- Learning Invariant Inter-pixel Correlations for Superpixel Generation [12.605604620139497]
学習可能な特徴は、制約付き判別能力を示し、不満足なピクセルグループ化性能をもたらす。
本稿では,不変画素間相関と統計特性を選択的に分離するContentangle Superpixelアルゴリズムを提案する。
4つのベンチマークデータセットの実験結果は、既存の最先端手法に対するアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-28T09:46:56Z) - Multi-scale Target-Aware Framework for Constrained Image Splicing
Detection and Localization [11.803255600587308]
統合パイプラインにおける特徴抽出と相関マッチングを結合するマルチスケールなターゲット認識フレームワークを提案する。
提案手法は,関連パッチの協調学習を効果的に促進し,特徴学習と相関マッチングの相互促進を行う。
我々の実験では、統一パイプラインを用いたモデルが、いくつかのベンチマークデータセット上で最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-08-18T07:38:30Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - FECANet: Boosting Few-Shot Semantic Segmentation with Feature-Enhanced
Context-Aware Network [48.912196729711624]
Few-shot セマンティックセグメンテーション(Few-shot semantic segmentation)は、新しいクラスの各ピクセルを、わずかに注釈付きサポートイメージで検索するタスクである。
本稿では,クラス間の類似性に起因するマッチングノイズを抑制するために,機能拡張コンテキスト認識ネットワーク(FECANet)を提案する。
さらに,前景と背景の余分な対応関係を符号化する新たな相関再構成モジュールを提案する。
論文 参考訳(メタデータ) (2023-01-19T16:31:13Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - A Tri-attention Fusion Guided Multi-modal Segmentation Network [2.867517731896504]
本稿では,新しい三点融合による多モードセグメンテーションネットワークを提案する。
我々のネットワークは、N個の画像ソースを持つN個のモデル非依存の符号化パス、三つのアテンション融合ブロック、二重アテンション融合ブロック、デコードパスを含む。
実験の結果,BraTS 2018データセットを用いて脳腫瘍セグメント化実験を行い,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-11-02T14:36:53Z) - 3D Medical Multi-modal Segmentation Network Guided by Multi-source
Correlation Constraint [2.867517731896504]
相関制約付き多モードセグメンテーションネットワークを提案する。
実験の結果,BraTS-2018データセットを用いて脳腫瘍のセグメンテーション実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-02-05T11:23:12Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - Bidirectional Graph Reasoning Network for Panoptic Segmentation [126.06251745669107]
本稿では,BGRNet(Bidirectional Graph Reasoning Network)を導入し,前景物と背景物間のモジュラー内およびモジュラー間関係について検討する。
BGRNetはまず、インスタンスとセマンティックセグメンテーションの両方でイメージ固有のグラフを構築し、提案レベルとクラスレベルで柔軟な推論を可能にする。
論文 参考訳(メタデータ) (2020-04-14T02:32:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。