論文の概要: Self-Distilled StyleGAN: Towards Generation from Internet Photos
- arxiv url: http://arxiv.org/abs/2202.12211v1
- Date: Thu, 24 Feb 2022 17:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:22:35.093386
- Title: Self-Distilled StyleGAN: Towards Generation from Internet Photos
- Title(参考訳): 自蒸留式スタイルガン:インターネット写真から生成へ
- Authors: Ron Mokady, Michal Yarom, Omer Tov, Oran Lang, Daniel Cohen-Or, Tali
Dekel, Michal Irani, Inbar Mosseri
- Abstract要約: 本稿では,インターネットから収集した未処理画像に対して,StyleGANをどのように適応させるかを示す。
本稿では,2つの主成分からなるスタイルGANを用いた自己蒸留法を提案する。
提案手法は,データの多様性の損失を最小限に抑えつつ,高品質な画像の生成を可能にする。
- 参考スコア(独自算出の注目度): 47.28014076401117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: StyleGAN is known to produce high-fidelity images, while also offering
unprecedented semantic editing. However, these fascinating abilities have been
demonstrated only on a limited set of datasets, which are usually structurally
aligned and well curated. In this paper, we show how StyleGAN can be adapted to
work on raw uncurated images collected from the Internet. Such image
collections impose two main challenges to StyleGAN: they contain many outlier
images, and are characterized by a multi-modal distribution. Training StyleGAN
on such raw image collections results in degraded image synthesis quality. To
meet these challenges, we proposed a StyleGAN-based self-distillation approach,
which consists of two main components: (i) A generative-based self-filtering of
the dataset to eliminate outlier images, in order to generate an adequate
training set, and (ii) Perceptual clustering of the generated images to detect
the inherent data modalities, which are then employed to improve StyleGAN's
"truncation trick" in the image synthesis process. The presented technique
enables the generation of high-quality images, while minimizing the loss in
diversity of the data. Through qualitative and quantitative evaluation, we
demonstrate the power of our approach to new challenging and diverse domains
collected from the Internet. New datasets and pre-trained models are available
at https://self-distilled-stylegan.github.io/ .
- Abstract(参考訳): StyleGANは高忠実度画像を生成することで知られており、また前例のないセマンティック編集も提供している。
しかし、これらの魅力的な能力は限られたデータセットでのみ実証されており、通常は構造的に整列し、十分にキュレートされている。
本稿では,インターネットから収集した未処理画像に対して,StyleGANをどのように適応させるかを示す。
このような画像コレクションは、スタイルガンに2つの大きな課題を課す。
このような生画像コレクションのトレーニングスタイルGANは、劣化した画像合成品質をもたらす。
これらの課題を満たすために,我々は2つの主成分からなるスタイルガン型自己蒸留法を提案した。
(i)適切なトレーニングセットを生成するために、外れた画像を除去するためにデータセットを生成ベースで自己フィルタリングすること。
(ii)生成した画像の知覚的クラスタリングにより固有のデータモダリティが検出され、画像合成過程におけるstyleganの「侵入トリック」を改善するために使用される。
提案手法は,データの多様性の損失を最小限に抑えつつ,高品質な画像の生成を可能にする。
質的かつ定量的な評価を通じて,インターネットから収集した新しい挑戦的かつ多様なドメインに対する我々のアプローチの力を実証する。
新しいデータセットと事前学習されたモデルは、https://self-distilled-stylegan.github.io/で入手できる。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - JeDi: Joint-Image Diffusion Models for Finetuning-Free Personalized Text-to-Image Generation [49.997839600988875]
既存のパーソナライズ手法は、ユーザのカスタムデータセット上でテキスト・ツー・イメージの基礎モデルを微調整することに依存している。
ファインタニングフリーのパーソナライズモデルを学ぶための効果的な手法として,ジョイントイメージ拡散(jedi)を提案する。
本モデルは,従来のファインタニングベースとファインタニングフリーのパーソナライゼーションベースの両方において,定量的かつ定性的に,高い品質を実現する。
論文 参考訳(メタデータ) (2024-07-08T17:59:02Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Style-Extracting Diffusion Models for Semi-Supervised Histopathology Segmentation [6.479933058008389]
スタイル抽出拡散モデルでは、下流タスクに有用な特徴のない画像を生成する。
本研究では,概念実証として自然画像データセット上での手法の有効性を示す。
患者間でのセグメンテーション結果の改善と性能変動の低減を図り, 得られた画像の付加価値を検証する。
論文 参考訳(メタデータ) (2024-03-21T14:36:59Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - StyleGAN-XL: Scaling StyleGAN to Large Diverse Datasets [35.11248114153497]
StyleGANは、画像の品質と可制御性に関する生成モデリングのための新しい標準を設定する。
最後のモデルであるStyleGAN-XLは、大規模な画像合成に新たな最先端を設定でき、そのようなデータセットスケールで10242ドルの解像度で画像を生成できる最初のモデルです。
論文 参考訳(メタデータ) (2022-02-01T08:22:34Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Unlabeled Data Guided Semi-supervised Histopathology Image Segmentation [34.45302976822067]
生成法に基づく半教師付き学習(SSL)は,多様な画像特性の活用に有効であることが証明されている。
非ラベルデータ分布を利用した病理組織像分割のための新しいデータガイド生成法を提案する。
本手法は腺および核データセット上で評価される。
論文 参考訳(メタデータ) (2020-12-17T02:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。