論文の概要: Saliency Detection via Global Context Enhanced Feature Fusion and Edge
Weighted Loss
- arxiv url: http://arxiv.org/abs/2110.06550v1
- Date: Wed, 13 Oct 2021 08:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 14:57:35.893934
- Title: Saliency Detection via Global Context Enhanced Feature Fusion and Edge
Weighted Loss
- Title(参考訳): グローバルコンテキスト拡張特徴融合とエッジ重み付き損失による塩分検出
- Authors: Chaewon Park, Minhyeok Lee, MyeongAh Cho, Sangyoun Lee
- Abstract要約: 本研究では,コンテキスト融合デコーダネットワーク(CFDN)と近縁重み付き損失(NEWLoss)関数を提案する。
CFDNは、グローバルコンテキスト情報を統合し、不要な空間情報の影響を抑えることにより、正確な唾液マップを作成する。
NewLossは、オブジェクト境界上の重み写像を生成することによって、追加モジュールなしで曖昧な境界の学習を加速する。
- 参考スコア(独自算出の注目度): 6.112591965159383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: UNet-based methods have shown outstanding performance in salient object
detection (SOD), but are problematic in two aspects. 1) Indiscriminately
integrating the encoder feature, which contains spatial information for
multiple objects, and the decoder feature, which contains global information of
the salient object, is likely to convey unnecessary details of non-salient
objects to the decoder, hindering saliency detection. 2) To deal with ambiguous
object boundaries and generate accurate saliency maps, the model needs
additional branches, such as edge reconstructions, which leads to increasing
computational cost. To address the problems, we propose a context fusion
decoder network (CFDN) and near edge weighted loss (NEWLoss) function. The CFDN
creates an accurate saliency map by integrating global context information and
thus suppressing the influence of the unnecessary spatial information. NEWLoss
accelerates learning of obscure boundaries without additional modules by
generating weight maps on object boundaries. Our method is evaluated on four
benchmarks and achieves state-of-the-art performance. We prove the
effectiveness of the proposed method through comparative experiments.
- Abstract(参考訳): UNetベースの手法は、正当性オブジェクト検出(SOD)において優れた性能を示しているが、2つの側面で問題がある。
1) 複数オブジェクトの空間情報を含むエンコーダ特徴と,当該サリアントオブジェクトのグローバル情報を含むデコーダ特徴とを独立に統合することにより,非サリアントオブジェクトの不要な詳細をデコーダに伝達し,サリアント検出を妨げる可能性がある。
2)曖昧なオブジェクト境界に対処し、正確なサリエンシーマップを生成するには、エッジリコンストラクションのような追加のブランチが必要であるため、計算コストが増加する。
この問題に対処するために,コンテキスト融合デコーダネットワーク(cfdn)とニアエッジ重み付き損失(newloss)関数を提案する。
CFDNは、グローバルコンテキスト情報を統合し、不要な空間情報の影響を抑えることにより、正確な唾液マップを作成する。
NEWLossは、オブジェクト境界上の重み写像を生成することで、追加モジュールなしで曖昧な境界の学習を加速する。
提案手法は4つのベンチマークで評価し,最先端の性能を実現する。
提案手法の有効性を比較実験により検証した。
関連論文リスト
- Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - USD: Unknown Sensitive Detector Empowered by Decoupled Objectness and
Segment Anything Model [14.080744645704751]
Open World Object Detection (OWOD) は、新しいコンピュータビジョンタスクである。
本稿では,この2つの境界の学習をデコーダ層に分割する,シンプルで効果的な学習戦略であるDecoupled Objectness Learning(DOL)を提案する。
また、擬似ラベルとソフトウェイト戦略を用いてノイズの負の影響を緩和する補助的スーパービジョンフレームワーク(ASF)も導入する。
論文 参考訳(メタデータ) (2023-06-04T06:42:09Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation [0.5482532589225552]
本稿では,空間的コンテキスト情報を中心として,新たなネットワークである Triple Context Network (TC-Net) を提案する。
我々のネットワークはオープンデータセットATLASで評価され、最高スコアは0.594、ハウスドルフ距離は27.005mm、平均対称性表面距離は7.137mmである。
論文 参考訳(メタデータ) (2022-02-28T11:12:16Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。