論文の概要: Structure-Consistent Weakly Supervised Salient Object Detection with
Local Saliency Coherence
- arxiv url: http://arxiv.org/abs/2012.04404v2
- Date: Wed, 9 Dec 2020 03:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:15:09.743684
- Title: Structure-Consistent Weakly Supervised Salient Object Detection with
Local Saliency Coherence
- Title(参考訳): 局所的塩分コヒーレンスを用いた構造整合型弱教師付き塩分物体検出
- Authors: Siyue Yu, Bingfeng Zhang, Jimin Xiao, Eng Gee Lim
- Abstract要約: 本論文では,スクリブルアノテーションによる弱監督オブジェクト検出のための1ラウンドのエンドツーエンドトレーニング手法を提案する。
6つのベンチマークで最新のパフォーマンスを実現します。
- 参考スコア(独自算出の注目度): 14.79639149658596
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sparse labels have been attracting much attention in recent years. However,
the performance gap between weakly supervised and fully supervised salient
object detection methods is huge, and most previous weakly supervised works
adopt complex training methods with many bells and whistles. In this work, we
propose a one-round end-to-end training approach for weakly supervised salient
object detection via scribble annotations without pre/post-processing
operations or extra supervision data. Since scribble labels fail to offer
detailed salient regions, we propose a local coherence loss to propagate the
labels to unlabeled regions based on image features and pixel distance, so as
to predict integral salient regions with complete object structures. We design
a saliency structure consistency loss as self-consistent mechanism to ensure
consistent saliency maps are predicted with different scales of the same image
as input, which could be viewed as a regularization technique to enhance the
model generalization ability. Additionally, we design an aggregation module
(AGGM) to better integrate high-level features, low-level features and global
context information for the decoder to aggregate various information. Extensive
experiments show that our method achieves a new state-of-the-art performance on
six benchmarks (e.g. for the ECSSD dataset: F_\beta = 0.8995, E_\xi = 0.9079
and MAE = 0.0489$), with an average gain of 4.60\% for F-measure, 2.05\% for
E-measure and 1.88\% for MAE over the previous best method on this task. Source
code is available at http://github.com/siyueyu/SCWSSOD.
- Abstract(参考訳): 近年、スパースレーベルが注目を集めている。
しかし、弱い教師と完全な教師付きオブジェクト検出方法のパフォーマンスギャップは巨大であり、以前の弱い教師付き作品の多くは、多くのベルとホイッスルを備えた複雑なトレーニング手法を採用している。
本研究では,事前処理操作や余分な監視データなしに,スクリブルアノテーションによる弱教師付きサルトオブジェクト検出のための1ラウンドのエンドツーエンドトレーニング手法を提案する。
クリブルラベルは精細なサルエント領域を提供しないため,画像特徴と画素距離に基づいてラベルをラベルなし領域に伝播させる局所コヒーレンス損失を提案し,完全なオブジェクト構造を持つ積分サルエント領域を予測する。
モデル一般化能力を高めるための正規化手法とみなすことができる入力と同じ画像の異なるスケールで、一貫した相似性マップが予測されることを保証するための自己整合機構として、相似性構造整合損失を設計する。
さらに,高レベル機能,低レベル機能,グローバルコンテキスト情報を統合し,様々な情報を集約するためのアグリゲーションモジュール(aggm)を設計した。
6つのベンチマーク(例)において,本手法が新たな最先端性能を実現することを示す。
ecssdデータセット: f_\beta = 0.8995, e_\xi = 0.9079, mae = 0.0489$) 平均利得は f-measure で 4.60\%, e-measureで 2.05\%, mae で 1.88\% である。
ソースコードはhttp://github.com/siyueyu/SCWSSOD.comで入手できる。
関連論文リスト
- SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - Towards the Uncharted: Density-Descending Feature Perturbation for Semi-supervised Semantic Segmentation [51.66997548477913]
本稿では,DDFP(Dedentity-Descending Feature Perturbation)という特徴レベルの一貫性学習フレームワークを提案する。
半教師付き学習における低密度分離仮定にインスパイアされた私たちの重要な洞察は、特徴密度はセグメンテーション分類器が探索する最も有望な方向の光を放つことができるということである。
提案したDFFPは、機能レベルの摂動に関する他の設計よりも優れており、Pascal VOCとCityscapesのデータセット上でのアートパフォーマンスの状態を示している。
論文 参考訳(メタデータ) (2024-03-11T06:59:05Z) - Background Activation Suppression for Weakly Supervised Object
Localization and Semantic Segmentation [84.62067728093358]
弱教師付きオブジェクトローカライゼーションとセマンティックセグメンテーションは、画像レベルのラベルのみを使用してオブジェクトをローカライズすることを目的としている。
画素レベルのローカライゼーションを実現するために,フォアグラウンド予測マップを生成することで,新たなパラダイムが誕生した。
本稿では,物体の局在化学習過程に関する2つの驚くべき実験結果を示す。
論文 参考訳(メタデータ) (2023-09-22T15:44:10Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - A Visual Representation-guided Framework with Global Affinity for Weakly
Supervised Salient Object Detection [8.823804648745487]
本稿では,スクリブルに基づくSODのためのコンテキスト意味知識を充実させた,一般的な視覚表現によってガイドされるフレームワークを提案する。
これらの一般的な視覚表現は、大規模未ラベルデータセットに基づいた自己教師付き学習によって生成される。
提案手法は,最先端の完全教師付きモデルに匹敵する,あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2023-02-21T14:31:57Z) - OAMatcher: An Overlapping Areas-based Network for Accurate Local Feature
Matching [9.006654114778073]
OAMatcherは、人間の動作を模倣して、密集した正確な一致を生成する、検知不要な手法である。
OAMatcherは重複する領域を予測し、効果的でクリーンなグローバルコンテキストアグリゲーションを促進する。
総合的な実験により、OAMatcherはいくつかのベンチマークで最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-02-12T03:32:45Z) - Single-Stage Open-world Instance Segmentation with Cross-task
Consistency Regularization [33.434628514542375]
オープンワールドのインスタンスセグメンテーションは、イメージからクラスに依存しないインスタンスをセグメントすることを目的としている。
本稿では,各インスタンスのマスクを直接生成する単一ステージフレームワークを提案する。
提案手法は, 完全教師付き設定と半教師付き設定の両方において, 印象的な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-08-18T18:55:09Z) - Weakly-Supervised Salient Object Detection Using Point Supervison [17.88596733603456]
現在の最先端の精度検出モデルは、正確なピクセル単位のアノテーションの大規模なデータセットに大きく依存している。
本稿では,ポイント・インスペクタを用いた弱教師付きサルエント・オブジェクト検出手法を提案する。
我々の手法は、より強い監督力で訓練された従来の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T12:16:05Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。