論文の概要: Co-Saliency Detection with Co-Attention Fully Convolutional Network
- arxiv url: http://arxiv.org/abs/2008.08909v1
- Date: Thu, 20 Aug 2020 11:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:40:21.912735
- Title: Co-Saliency Detection with Co-Attention Fully Convolutional Network
- Title(参考訳): コアテンション完全畳み込みネットワークを用いたコサリエンシー検出
- Authors: Guangshuai Gao, Wenting Zhao, Qingjie Liu, Yunhong Wang
- Abstract要約: 共塩分検出は、関連した画像のグループから一般的な塩分物を検出することを目的としている。
我々は、コアテンションFCN(CA-FCN)と呼ばれる、コアテンションモジュール組み込みFCNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 47.26829884104539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Co-saliency detection aims to detect common salient objects from a group of
relevant images. Some attempts have been made with the Fully Convolutional
Network (FCN) framework and achieve satisfactory detection results. However,
due to stacking convolution layers and pooling operation, the boundary details
tend to be lost. In addition, existing models often utilize the extracted
features without discrimination, leading to redundancy in representation since
actually not all features are helpful to the final prediction and some even
bring distraction. In this paper, we propose a co-attention module embedded FCN
framework, called as Co-Attention FCN (CA-FCN). Specifically, the co-attention
module is plugged into the high-level convolution layers of FCN, which can
assign larger attention weights on the common salient objects and smaller ones
on the background and uncommon distractors to boost final detection
performance. Extensive experiments on three popular co-saliency benchmark
datasets demonstrate the superiority of the proposed CA-FCN, which outperforms
state-of-the-arts in most cases. Besides, the effectiveness of our new
co-attention module is also validated with ablation studies.
- Abstract(参考訳): co-saliency detectionは、関連する画像のグループから共通のサルエントオブジェクトを検出することを目的としている。
完全な畳み込みネットワーク(FCN)フレームワークでいくつかの試みが行われ、良好な検出結果が得られた。
しかし、畳み込み層とプール操作の積み重ねにより、境界の詳細は失われる傾向がある。
さらに、既存のモデルでは、抽出した特徴を識別せずに利用することが多く、全ての特徴が最終的な予測に役立っているわけではないため、表現の冗長性が生じる。
本稿では,コアテンションFCN(CA-FCN)と呼ばれる,コアテンションモジュール組み込みFCNフレームワークを提案する。
具体的には、コアテンションモジュールをFCNの高レベルな畳み込み層に差し込むことで、一般的なサルエントオブジェクトと背景にあるより小さなオブジェクトにより大きな注意重みを割り当て、最終的な検出性能を高めることができる。
一般的な3つのベンチマークデータセットに対する大規模な実験は、提案されたCA-FCNの優位性を実証している。
また,新しいコアテンションモジュールの有効性をアブレーション研究により検証した。
関連論文リスト
- CAVE: Classifying Abnormalities in Video Capsule Endoscopy [0.1937002985471497]
本研究では,複雑な画像データセットの分類精度を向上させるために,アンサンブルに基づくアプローチを検討する。
各モデルのユニークな特徴抽出機能を活用し、全体的な精度を向上させる。
実験により、アンサンブルは難易度と不均衡度の高いクラス間で高い精度と堅牢性を達成することが示された。
論文 参考訳(メタデータ) (2024-10-26T17:25:08Z) - Renormalized Connection for Scale-preferred Object Detection in Satellite Imagery [51.83786195178233]
我々は、効率的な特徴抽出の観点から再正規化群理論を実装するために、知識発見ネットワーク(KDN)を設計する。
KDN上の再正規化接続(RC)は、マルチスケール特徴の「相乗的焦点」を可能にする。
RCはFPNベースの検出器のマルチレベル特徴の分割・対数機構を幅広いスケールで予測されたタスクに拡張する。
論文 参考訳(メタデータ) (2024-09-09T13:56:22Z) - AttenScribble: Attentive Similarity Learning for Scribble-Supervised
Medical Image Segmentation [5.8447004333496855]
本稿では,単純かつ効果的なスクリブル教師あり学習フレームワークを提案する。
我々は、任意の完全畳み込みネットワーク(FCN)バックボーンの内部特徴層の上に、接続可能な空間自己アテンションモジュールを作成する。
この注意深い類似性は、セグメンテーション予測と視覚親和性の一貫性を課する新たな正規化損失をもたらす。
論文 参考訳(メタデータ) (2023-12-11T18:42:18Z) - GCoNet+: A Stronger Group Collaborative Co-Salient Object Detector [156.43671738038657]
本稿では,GCoNet+と呼ばれる新しいグループ協調学習ネットワークを提案する。
GCoNet+は自然界における共存対象を効果的かつ効率的に識別することができる。
論文 参考訳(メタデータ) (2022-05-30T23:49:19Z) - NL-FCOS: Improving FCOS through Non-Local Modules for Object Detection [0.0]
FCOSヘッドと組み合わせた非局所モジュール(NL-FCOS)は実用的で効率的であることを示す。
衣服検出と手書き量認識問題における最先端性能を確立した。
論文 参考訳(メタデータ) (2022-03-29T15:00:14Z) - DeFRCN: Decoupled Faster R-CNN for Few-Shot Object Detection [17.326702469604676]
未確認クラスのごく少数の例から、新しいオブジェクトを迅速に検出することを目的としていない。
既存のほとんどのアプローチでは、基本的な検出フレームワークとしてFaster R-CNNを使用している。
DeFRCN (Decoupled Faster R-CNN) というシンプルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:12:55Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Towards Accurate RGB-D Saliency Detection with Complementary Attention
and Adaptive Integration [20.006932559837516]
近年,RGB画像と深度マップの相補的情報に基づく残差検出が盛んに行われている。
本稿では,補完的注意に基づく特徴集中と適応的クロスモーダル特徴融合を統合するための補完的注意・適応統合ネットワーク(CAAI-Net)を提案する。
CAAI-Netは効果的な唾液濃度検出モデルであり、4つの広く使用されているメトリクスで9つの最先端モデルを上回っている。
論文 参考訳(メタデータ) (2021-02-08T08:08:30Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - End-to-End Object Detection with Fully Convolutional Network [71.56728221604158]
エンドツーエンド検出を実現するために,分類のための予測対応ワン・ツー・ワン (POTO) ラベルの割り当てを導入する。
局所領域における畳み込みの判別性を向上させるために, 簡易な3次元maxフィルタ(3dmf)を提案する。
エンドツーエンドのフレームワークは,COCOおよびCrowdHumanデータセット上のNMSを用いて,最先端の多くの検出器と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-07T09:14:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。