論文の概要: YuruGAN: Yuru-Chara Mascot Generator Using Generative Adversarial
Networks With Clustering Small Dataset
- arxiv url: http://arxiv.org/abs/2004.08066v1
- Date: Fri, 17 Apr 2020 05:18:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 10:05:35.994954
- Title: YuruGAN: Yuru-Chara Mascot Generator Using Generative Adversarial
Networks With Clustering Small Dataset
- Title(参考訳): yurugan:小さなデータセットをクラスタリングした生成型逆ネットワークを用いたyuru-chara mascotジェネレータ
- Authors: Yuki Hagiwara and Toshihisa Tanaka
- Abstract要約: 本稿では,クラスタリングとデータ拡張に基づくクラス条件付きGANを提案する。
生成画像の評価の結果,クラスタリング法の違いによる生成画像への影響が確認された。
- 参考スコア(独自算出の注目度): 4.941047889055126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A yuru-chara is a mascot character created by local governments and companies
for publicizing information on areas and products. Because it takes various
costs to create a yuruchara, the utilization of machine learning techniques
such as generative adversarial networks (GANs) can be expected. In recent
years, it has been reported that the use of class conditions in a dataset for
GANs training stabilizes learning and improves the quality of the generated
images. However, it is difficult to apply class conditional GANs when the
amount of original data is small and when a clear class is not given, such as a
yuruchara image. In this paper, we propose a class conditional GAN based on
clustering and data augmentation. Specifically, first, we performed clustering
based on K-means++ on the yuru-chara image dataset and converted it into a
class conditional dataset. Next, data augmentation was performed on the class
conditional dataset so that the amount of data was increased five times. In
addition, we built a model that incorporates ResBlock and self-attention into a
network based on class conditional GAN and trained the class conditional
yuru-chara dataset. As a result of evaluating the generated images, the effect
on the generated images by the difference of the clustering method was
confirmed.
- Abstract(参考訳): ユルチャラ(yuru-chara)は、地方自治体や企業が地域や商品に関する情報を公開するために作ったマスコットキャラクターである。
ユルクラを作成するには様々なコストがかかるため、GAN(Generative Adversarial Network)のような機械学習技術の利用が期待できる。
近年,GAN訓練用データセットにおけるクラス条件の使用は学習を安定させ,生成した画像の品質を向上させることが報告されている。
しかし,原データの量が小さく,明確なクラスが与えられていないような場合,ユルチャラ画像などの条件付きganを適用することは困難である。
本稿では,クラスタリングとデータ拡張に基づくクラス条件付きGANを提案する。
具体的には、まず、yuru-charaイメージデータセット上でk-means++に基づくクラスタリングを行い、それをクラス条件付きデータセットに変換した。
次に、クラス条件付きデータセット上でデータ拡張を行い、データ量を5倍に増やした。
さらに,ResBlockと自己注意をクラス条件GANに基づくネットワークに組み込んだモデルを構築し,クラス条件Yru-charaデータセットを訓練した。
生成画像の評価の結果,クラスタリング法の違いによる生成画像への影響が確認された。
関連論文リスト
- Advancing Fine-Grained Classification by Structure and Subject Preserving Augmentation [8.777277201807351]
本報告では,SaSPA: Structure and Subject Preserving Augmentationについて述べる。
本手法では, 実画像をガイダンスとして使用せず, 生成の柔軟性を高め, 多様性を高める。
従来のデータ拡張手法と最近のデータ拡張手法の両方に対して、広範な実験を行い、SaSPAをベンチマークする。
論文 参考訳(メタデータ) (2024-06-20T17:58:30Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - Cluster-guided Image Synthesis with Unconditional Models [41.89334167530054]
本研究は、教師なし方式でよく訓練されたGANを活用することにより、制御可能な画像生成に焦点を当てる。
クラスタ割り当てを条件付けすることで、提案手法は生成された画像の意味クラスを制御することができる。
顔(CelebA-HQとFFHQ)、動物(Imagenet)、オブジェクト(LSUN)に対するアプローチの有効性を,異なる事前学習生成モデルを用いて示す。
論文 参考訳(メタデータ) (2021-12-24T02:18:34Z) - Efficient Conditional GAN Transfer with Knowledge Propagation across
Classes [85.38369543858516]
CGANは、無条件設定と比較して新しい知識移転の機会を提供します。
新しいクラスは、関連する古いクラスから知識を借りたり、トレーニングを改善するために知識を共有したりする。
新しいGAN転送手法は、古いクラスから新しいクラスへの知識を明示的に伝達する。
論文 参考訳(メタデータ) (2021-02-12T18:55:34Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。