論文の概要: ILSGAN: Independent Layer Synthesis for Unsupervised
Foreground-Background Segmentation
- arxiv url: http://arxiv.org/abs/2211.13974v2
- Date: Mon, 28 Nov 2022 08:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:18:01.024328
- Title: ILSGAN: Independent Layer Synthesis for Unsupervised
Foreground-Background Segmentation
- Title(参考訳): ILSGAN: 教師なし前地上セグメンテーションのための独立層合成
- Authors: Qiran Zou, Yu Yang, Wing Yin Cheung, Chang Liu, Xiangyang Ji
- Abstract要約: 我々は、ILSGAN(Independent Layer Synthesis GAN)と呼ばれる、単純かつ効果的な明示的な層独立性モデリング手法を提案する。
ILSGANは、それらの相違を奨励することによって、フォアグラウンド・バックグラウンド・レイヤの独立した生成を追求する。
具体的には、前景と背景の可視領域間の相互情報の最小化を目標とし、層間独立を助長する。
- 参考スコア(独自算出の注目度): 36.88028792513072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised foreground-background segmentation aims at extracting salient
objects from cluttered backgrounds, where Generative Adversarial Network (GAN)
approaches, especially layered GANs, show great promise. However, without human
annotations, they are typically prone to produce foreground and background
layers with non-negligible semantic and visual confusion, dubbed "information
leakage", resulting in notable degeneration of the generated segmentation mask.
To alleviate this issue, we propose a simple-yet-effective explicit layer
independence modeling approach, termed Independent Layer Synthesis GAN
(ILSGAN), pursuing independent foreground-background layer generation by
encouraging their discrepancy. Specifically, it targets minimizing the mutual
information between visible and invisible regions of the foreground and
background to spur interlayer independence. Through in-depth theoretical and
experimental analyses, we justify that explicit layer independence modeling is
critical to suppressing information leakage and contributes to impressive
segmentation performance gains. Also, our ILSGAN achieves strong
state-of-the-art generation quality and segmentation performance on complex
real-world data.
- Abstract(参考訳): 非教師なしフォアグラウンド・バックグラウンド・セグメンテーションは、乱雑な背景から、特に層状GAN(Generative Adversarial Network)アプローチによって、非常に有望な対象を抽出することを目的としている。
しかしながら、人間のアノテーションがなければ、それらは一般に「情報漏洩」と呼ばれる非無視的な意味と視覚的混乱を伴う前景層と背景層を生成する傾向があり、それによって生成されたセグメンテーションマスクが顕著に劣化する。
この問題を軽減するために,独立層合成GAN (ILSGAN) と呼ばれる,単純かつ効果的な明示的な層独立性モデリング手法を提案する。
具体的には、前景と背景の可視領域間の相互情報の最小化を目標とし、層間独立を促進する。
理論的および実験的分析により、明示的な層独立性モデリングは情報漏洩を抑制するために重要であり、セグメンテーション性能の向上に寄与する。
また,我々のilsganは,複雑な実世界のデータに対して,最先端の生成品質とセグメンテーション性能を実現している。
関連論文リスト
- Semantic-guided Adversarial Diffusion Model for Self-supervised Shadow Removal [5.083330121710086]
GANベースのトレーニングは、しばしばモード崩壊や不安定な最適化といった問題に直面している。
自己教師付きシャドウ除去のための意味誘導逆拡散フレームワークを提案する。
複数の公開データセットで実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-07-01T09:14:38Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - Unsupervised Camouflaged Object Segmentation as Domain Adaptation [5.304455190825436]
本研究では,対象オブジェクトが共通属性,すなわちカモフラージュ(camouflage)を所有する,教師なしカモフラージュオブジェクトセグメンテーション(UCOS)という新しいタスクについて検討する。
現状の教師なしモデルは、ジェネリックオブジェクトとカモフラーグオブジェクトのドメインギャップのため、UCOSの適応に苦慮している。
我々は、UCOSをソースフリーな教師なしドメイン適応タスク(UCOS-DA)として定式化し、モデルトレーニングプロセス全体において、ソースラベルとターゲットラベルの両方が欠落している。
論文 参考訳(メタデータ) (2023-08-08T18:46:16Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Progressively Dual Prior Guided Few-shot Semantic Segmentation [57.37506990980975]
Few-shotのセマンティックセマンティックセマンティクスタスクは、いくつかのアノテーション付きサポートサンプルを使用して、クエリイメージのセマンティクスを実行することを目的としている。
本稿では,先進的に2重にガイドされた数発のセマンティックセマンティックセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2022-11-20T16:19:47Z) - Deep Spectral Methods: A Surprisingly Strong Baseline for Unsupervised
Semantic Segmentation and Localization [98.46318529630109]
画像分解をグラフ分割問題として再フレーミングすることで,従来のスペクトル分割法から着想を得た。
これらの固有ベクトルはすでにイメージを意味のあるセグメントに分解しており、シーン内のオブジェクトのローカライズに容易に利用できる。
データセットにまたがるこれらのセグメントに関連する機能をクラスタ化することで、明確に定義された、名前付き可能なリージョンを得ることができる。
論文 参考訳(メタデータ) (2022-05-16T17:47:44Z) - Unsupervised Foreground-Background Segmentation with Equivariant Layered
GANs [48.3919579579129]
GANから生成された合成擬似分節データセット上で分節ネットワークを訓練することにより,教師なし前景分節法を提案する。
前景層と背景層を効率的に生成し、それらをオーバーレイして新規な画像を生成するため、提案する同変層ganによりganを構成する。
本手法はCaltech-UCSD Birds や LSUN Car などの教師なしオブジェクトセグメンテーションデータセットを用いて評価し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T14:13:25Z) - Labels4Free: Unsupervised Segmentation using StyleGAN [40.39780497423365]
本稿では,StyleGAN生成オブジェクトに対する教師なしセグメンテーションフレームワークを提案する。
最先端の教師付きセグメンテーションネットワークに対する比較結果について報告する。
論文 参考訳(メタデータ) (2021-03-27T18:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。