論文の概要: Synthetic Data Supervised Salient Object Detection
- arxiv url: http://arxiv.org/abs/2210.13835v1
- Date: Tue, 25 Oct 2022 08:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:08:22.627972
- Title: Synthetic Data Supervised Salient Object Detection
- Title(参考訳): 合成データ教師付きサルエント物体検出
- Authors: Zhenyu Wu, Lin Wang, Wei Wang, Tengfei Shi, Chenglizhao Chen, Aimin
Hao, Shuo Li
- Abstract要約: そこで我々は,SODGANという,高品質な画像マスク対を無限に生成できる新しいSOD手法を提案する。
SODGANは、生成モデルから直接生成された合成データを用いて、SODに初めて取り組みます。
提案手法は, 半弱弱教師付き手法において新たなSOTA性能を実現し, 完全教師付きSOTA手法よりも優れる。
- 参考スコア(独自算出の注目度): 40.991558165686136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep salient object detection (SOD) has achieved remarkable
progress, deep SOD models are extremely data-hungry, requiring large-scale
pixel-wise annotations to deliver such promising results. In this paper, we
propose a novel yet effective method for SOD, coined SODGAN, which can generate
infinite high-quality image-mask pairs requiring only a few labeled data, and
these synthesized pairs can replace the human-labeled DUTS-TR to train any
off-the-shelf SOD model. Its contribution is three-fold. 1) Our proposed
diffusion embedding network can address the manifold mismatch and is tractable
for the latent code generation, better matching with the ImageNet latent space.
2) For the first time, our proposed few-shot saliency mask generator can
synthesize infinite accurate image synchronized saliency masks with a few
labeled data. 3) Our proposed quality-aware discriminator can select
highquality synthesized image-mask pairs from noisy synthetic data pool,
improving the quality of synthetic data. For the first time, our SODGAN tackles
SOD with synthetic data directly generated from the generative model, which
opens up a new research paradigm for SOD. Extensive experimental results show
that the saliency model trained on synthetic data can achieve $98.4\%$
F-measure of the saliency model trained on the DUTS-TR. Moreover, our approach
achieves a new SOTA performance in semi/weakly-supervised methods, and even
outperforms several fully-supervised SOTA methods. Code is available at
https://github.com/wuzhenyubuaa/SODGAN
- Abstract(参考訳): deep salient object detection (sod)は目覚ましい進歩を遂げているが、deep sodモデルは極めてデータに富み、このような有望な結果を得るためには大規模なピクセル単位のアノテーションを必要とする。
本稿では,数個のラベル付きデータのみを必要とする無限の高品質な画像マスクペアを生成可能なSODGANを創出し,その合成されたペアは,人間ラベル付きDUTS-TRを置き換えて,既製のSODモデルをトレーニングする。
その貢献は3倍である。
1)提案する拡散埋め込みネットワークは,多様体のミスマッチに対処でき,潜在コード生成にも適用可能であり,imagenet の潜在空間とのマッチング性が向上する。
2)提案した数発のサリエンシマスク生成装置は,数個のラベル付きデータを用いて,無限に正確な画像同期サリエンシマスクを合成できる。
3)提案した品質認識識別器は,ノイズの多い合成データプールから高品質な合成マスク対を選択でき,合成データの質が向上する。
SODGANは、生成モデルから直接生成された合成データを用いてSODに初めて取り組み、SODの新たな研究パラダイムが開かれる。
総合的な実験結果から, DUTS-TRでトレーニングしたサリエンシモデルに対して, 合成データでトレーニングしたサリエンシモデルに対して, 98.4 % のF値が得られた。
さらに,本手法は半弱教師付き手法において新たなSOTA性能を実現し,完全教師付きSOTA手法よりも優れる。
コードはhttps://github.com/wuzhenyubuaa/SODGANで入手できる。
関連論文リスト
- StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - Explore the Power of Synthetic Data on Few-shot Object Detection [27.26215175101865]
Few-shot Object Detection (FSOD) は、トレーニングのいくつかの例に限って、新しいカテゴリのオブジェクト検出器を拡張することを目的としている。
近年のテキスト・画像生成モデルでは,高品質な画像を生成する上で有望な結果が得られている。
この研究は、最先端のテキスト・ツー・イメージ・ジェネレータから生成された合成画像がFSODタスクにどのように貢献するかを幅広く研究している。
論文 参考訳(メタデータ) (2023-03-23T12:34:52Z) - Domain Generalization via Ensemble Stacking for Face Presentation Attack
Detection [4.61143637299349]
顔提示攻撃検出(PAD)は、偽造攻撃に対する顔認識システムを保護する上で重要な役割を担っている。
本研究では,合成データ生成と深層アンサンブル学習を組み合わせた包括的ソリューションを提案する。
4つのデータセットに対する実験結果は、3つのベンチマークデータセット上でのHTER(low half total error rate)を示す。
論文 参考訳(メタデータ) (2023-01-05T16:44:36Z) - Lafite2: Few-shot Text-to-Image Generation [132.14211027057766]
本稿では,画像のみのデータセットを用いたテキスト・画像生成モデルの事前学習手法を提案する。
擬似テキスト特徴を合成する検索テーマ最適化手法を検討する。
これは、数ショット、半教師あり、完全に教師された学習など、幅広い設定で有益である。
論文 参考訳(メタデータ) (2022-10-25T16:22:23Z) - Optimized latent-code selection for explainable conditional
text-to-image GANs [8.26410341981427]
本稿では,条件付きテキスト・ツー・イメージGANモデルの潜時空間と意味空間を深く検討する様々な手法を提案する。
本稿では,線形SVMを用いて,優れた潜在コードを見つけるためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-27T03:12:55Z) - PromDA: Prompt-based Data Augmentation for Low-Resource NLU Tasks [61.51515750218049]
本稿では,低リソース自然言語理解(NLU)タスクのためのデータ拡張について述べる。
小型ソフト・プロンプトのみを訓練するPrompt-based Data Augmentation Model (PromDA)を提案する。
PromDAは2つの異なるビューを通して合成データを生成し、低品質データをNLUモデルを用いてフィルタリングする。
論文 参考訳(メタデータ) (2022-02-25T05:09:27Z) - A Deep Learning Generative Model Approach for Image Synthesis of Plant
Leaves [62.997667081978825]
我々は,高度深層学習(DL)技術を用いて,人工葉画像の自動生成を行う。
我々は、現代の作物管理のためのAIアプリケーションのためのトレーニングサンプルのソースを処分することを目指している。
論文 参考訳(メタデータ) (2021-11-05T10:53:35Z) - UltraPose: Synthesizing Dense Pose with 1 Billion Points by Human-body
Decoupling 3D Model [58.70130563417079]
我々は,身体の発生を自由に制御できる,一連の分離されたパラメータを持つ新しい3次元人体モデルを導入する。
既存の手動注釈付きDensePose-COCOデータセットと比較して、合成されたUltraPoseは、アノテーションのコストと誤差を伴わずに、超高密度な画像-地上対応を持つ。
論文 参考訳(メタデータ) (2021-10-28T16:24:55Z) - Synthetic Data and Hierarchical Object Detection in Overhead Imagery [0.0]
衛星画像における低・ゼロサンプル学習を向上させるための新しい合成データ生成および拡張技術を開発した。
合成画像の有効性を検証するために,検出モデルと2段階モデルの訓練を行い,実際の衛星画像上で得られたモデルを評価する。
論文 参考訳(メタデータ) (2021-01-29T22:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。