論文の概要: SalFAU-Net: Saliency Fusion Attention U-Net for Salient Object Detection
- arxiv url: http://arxiv.org/abs/2405.02906v1
- Date: Sun, 5 May 2024 12:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 17:50:42.413864
- Title: SalFAU-Net: Saliency Fusion Attention U-Net for Salient Object Detection
- Title(参考訳): SalFAU-Net:Salient Object DetectionのためのSaliency Fusion Attention U-Net
- Authors: Kassaw Abraham Mulat, Zhengyong Feng, Tegegne Solomon Eshetie, Ahmed Endris Hasen,
- Abstract要約: Saliency Fusion Attention U-Net (SalFAU-Net) モデルは、各デコーダブロックからSaliency probability mapを生成する。
DUTSデータセット上のSalFAU-Netをバイナリクロスエントロピー損失関数を用いて訓練する。
本手法は, 平均絶対誤差(MAE), F測定, s測定, e測定において, 他の手法と比較して, 競合性能が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Salient object detection (SOD) remains an important task in computer vision, with applications ranging from image segmentation to autonomous driving. Fully convolutional network (FCN)-based methods have made remarkable progress in visual saliency detection over the last few decades. However, these methods have limitations in accurately detecting salient objects, particularly in challenging scenes with multiple objects, small objects, or objects with low resolutions. To address this issue, we proposed a Saliency Fusion Attention U-Net (SalFAU-Net) model, which incorporates a saliency fusion module into each decoder block of the attention U-net model to generate saliency probability maps from each decoder block. SalFAU-Net employs an attention mechanism to selectively focus on the most informative regions of an image and suppress non-salient regions. We train SalFAU-Net on the DUTS dataset using a binary cross-entropy loss function. We conducted experiments on six popular SOD evaluation datasets to evaluate the effectiveness of the proposed method. The experimental results demonstrate that our method, SalFAU-Net, achieves competitive performance compared to other methods in terms of mean absolute error (MAE), F-measure, s-measure, and e-measure.
- Abstract(参考訳): サリアント物体検出(SOD)は、画像セグメンテーションから自律運転まで、コンピュータビジョンにおいて重要な課題である。
完全畳み込みネットワーク(FCN)に基づく手法は、過去数十年間、視覚的塩分濃度の検出において顕著な進歩を遂げてきた。
しかし、これらの手法は、特に複数のオブジェクト、小さなオブジェクト、解像度の低いオブジェクトを含む挑戦的なシーンにおいて、厳密なオブジェクトを正確に検出する制限がある。
この問題に対処するために,注目U-netモデルの各デコーダブロックにサリエンシ融合モジュールを組み込んだサリエンシ融合注意U-Netモデルを提案し,各デコーダブロックからサリエンシ確率マップを生成する。
SalFAU-Netは、画像の最も情報性の高い領域に選択的に焦点をあて、非塩分領域を抑圧するアテンションメカニズムを採用している。
DUTSデータセット上のSalFAU-Netをバイナリクロスエントロピー損失関数を用いて訓練する。
提案手法の有効性を評価するため,6つのSOD評価データセットについて実験を行った。
実験の結果,SalFAU-Net法は平均絶対誤差(MAE),F値,s値,e値など,他の手法と比較して競争性能が高いことがわかった。
関連論文リスト
- SFOD: Spiking Fusion Object Detector [10.888008544975662]
Spiking Fusion Object Detector (SFOD)は、SNNベースのオブジェクト検出のためのシンプルで効率的なアプローチである。
我々は、イベントカメラに適用されたSNNにおいて、異なるスケールのフィーチャーマップを初めて融合させる、スパイキングフュージョンモジュールを設計する。
我々は、NCARデータセット上で93.7%の精度を達成し、SNNに基づいて最先端の分類結果を確立する。
論文 参考訳(メタデータ) (2024-03-22T13:24:50Z) - CoFiNet: Unveiling Camouflaged Objects with Multi-Scale Finesse [46.79770062391987]
本稿では,CoFiNetというカモフラージュ物体検出手法を提案する。
提案手法は,マルチスケールな特徴融合と抽出に重点を置いており,特にモデルのセグメンテーションの有効性に注目している。
CoFiNetは、すべてのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-03T17:24:55Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - An advanced YOLOv3 method for small object detection [2.906551456030129]
本稿では,小型物体検出のための改良型YOLOv3アルゴリズムを提案する。
提案手法では,拡張畳み込みミッシュ(DCM)モジュールをYOLOv3のバックボーンネットワークに導入する。
YOLOv3のネックネットワークでは、畳み込みブロックアテンションモジュール(CBAM)とマルチレベル融合モジュールが導入されている。
論文 参考訳(メタデータ) (2022-12-06T07:58:21Z) - Saliency Detection via Global Context Enhanced Feature Fusion and Edge
Weighted Loss [6.112591965159383]
本研究では,コンテキスト融合デコーダネットワーク(CFDN)と近縁重み付き損失(NEWLoss)関数を提案する。
CFDNは、グローバルコンテキスト情報を統合し、不要な空間情報の影響を抑えることにより、正確な唾液マップを作成する。
NewLossは、オブジェクト境界上の重み写像を生成することによって、追加モジュールなしで曖昧な境界の学習を加速する。
論文 参考訳(メタデータ) (2021-10-13T08:04:55Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。