論文の概要: Labels4Free: Unsupervised Segmentation using StyleGAN
- arxiv url: http://arxiv.org/abs/2103.14968v1
- Date: Sat, 27 Mar 2021 18:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:05:01.982455
- Title: Labels4Free: Unsupervised Segmentation using StyleGAN
- Title(参考訳): Labels4Free: StyleGANを使った教師なしセグメンテーション
- Authors: Rameen Abdal, Peihao Zhu, Niloy Mitra, Peter Wonka
- Abstract要約: 本稿では,StyleGAN生成オブジェクトに対する教師なしセグメンテーションフレームワークを提案する。
最先端の教師付きセグメンテーションネットワークに対する比較結果について報告する。
- 参考スコア(独自算出の注目度): 40.39780497423365
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose an unsupervised segmentation framework for StyleGAN generated
objects. We build on two main observations. First, the features generated by
StyleGAN hold valuable information that can be utilized towards training
segmentation networks. Second, the foreground and background can often be
treated to be largely independent and be composited in different ways. For our
solution, we propose to augment the StyleGAN2 generator architecture with a
segmentation branch and to split the generator into a foreground and background
network. This enables us to generate soft segmentation masks for the foreground
object in an unsupervised fashion. On multiple object classes, we report
comparable results against state-of-the-art supervised segmentation networks,
while against the best unsupervised segmentation approach we demonstrate a
clear improvement, both in qualitative and quantitative metrics.
- Abstract(参考訳): 本稿では,StyleGAN生成オブジェクトに対する教師なしセグメンテーションフレームワークを提案する。
2つの主要な観察に基づいています
まず、StyleGANが生成した機能は、セグメンテーションネットワークのトレーニングに利用できる貴重な情報を保持する。
第二に、前景と背景は、大きく独立して様々な方法で合成されることが多い。
提案手法では, セグメンテーションブランチによるStyleGAN2ジェネレータアーキテクチャの拡張と, ジェネレータをフォアグラウンドとバックグラウンドネットワークに分割することを提案する。
これにより、教師なしの方法で前景オブジェクトのソフトセグメンテーションマスクを生成することができる。
複数のオブジェクトクラスにおいて、最先端の教師付きセグメンテーションネットワークに対する比較結果が報告されているが、最良の教師なしセグメンテーションアプローチに対して、質的および定量的指標の両方において明確な改善が示されている。
関連論文リスト
- OMH: Structured Sparsity via Optimally Matched Hierarchy for Unsupervised Semantic Segmentation [69.37484603556307]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Lidar Panoptic Segmentation and Tracking without Bells and Whistles [48.078270195629415]
ライダーセグメンテーションと追跡のための検出中心ネットワークを提案する。
私たちのネットワークのコアコンポーネントの1つは、オブジェクトインスタンス検出ブランチです。
提案手法を複数の3D/4D LPSベンチマークで評価し,我々のモデルがオープンソースモデル間で新たな最先端性を確立することを確認した。
論文 参考訳(メタデータ) (2023-10-19T04:44:43Z) - Weakly-Supervised Concealed Object Segmentation with SAM-based Pseudo
Labeling and Multi-scale Feature Grouping [40.07070188661184]
Wakly-Supervised Concealed Object (WSCOS) は、周囲の環境とうまく融合したオブジェクトを分割することを目的としている。
内在的な類似性のため、背景から隠された物体を区別することは困難である。
これら2つの課題に対処する新しいWSCOS手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T14:31:34Z) - Unsupervised Hierarchical Semantic Segmentation with Multiview
Cosegmentation and Clustering Transformers [47.45830503277631]
グループ化は自然に粒度のレベルを持ち、教師なしのセグメンテーションにおいて曖昧さを生み出す。
階層的セグメンテーショングループ(HSG)と呼ばれる,データ駆動型非教師付き階層的セグメンテーション手法を初めて提供する。
論文 参考訳(メタデータ) (2022-04-25T04:40:46Z) - Fully Self-Supervised Learning for Semantic Segmentation [46.6602159197283]
セマンティックセグメンテーション(FS4)のための完全自己教師型フレームワークを提案する。
自己スーパービジョンのためのグローバルなセマンティック知識をフル活用したセマンティックセマンティックセマンティクスのためのブートストラップ付きトレーニングスキームを提案する。
大規模COCO-Stuffデータセットを用いて本手法の評価を行い,対象物と対象物の両方において7.19mIoUの改善を実現した。
論文 参考訳(メタデータ) (2022-02-24T09:38:22Z) - A Unified Architecture of Semantic Segmentation and Hierarchical
Generative Adversarial Networks for Expression Manipulation [52.911307452212256]
セマンティックセグメンテーションと階層的GANの統一アーキテクチャを開発する。
我々のフレームワークのユニークな利点は、将来的なセマンティックセグメンテーションネットワーク条件を生成モデルに渡すことである。
我々は,AffectNetとRaFDの2つの難解な表情翻訳ベンチマークとセマンティックセグメンテーションベンチマークであるCelebAMask-HQについて評価を行った。
論文 参考訳(メタデータ) (2021-12-08T22:06:31Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。