論文の概要: A Comparative Study of GAN-Generated Handwriting Images and MNIST Images
using t-SNE Visualization
- arxiv url: http://arxiv.org/abs/2305.09786v1
- Date: Thu, 4 May 2023 07:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 10:43:00.189642
- Title: A Comparative Study of GAN-Generated Handwriting Images and MNIST Images
using t-SNE Visualization
- Title(参考訳): t-SNE可視化を用いたGAN生成手書き画像とMNIST画像の比較検討
- Authors: Okan D\"uzyel
- Abstract要約: 本稿では,MNISTデータセット上のGAN生成画像の品質について検討した。
GAN生成画像は元の画像と似ているが,特徴の分布に若干の違いがあることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of GAN-generated images on the MNIST dataset was explored in this
paper by comparing them to the original images using t-distributed stochastic
neighbor embedding (t- SNE) visualization. A GAN was trained with the dataset
to generate images and the result of generating all synthetic images, the
corresponding labels were saved. The dimensionality of the generated images and
the original MNIST dataset was reduced using t-SNE and the resulting embeddings
were plotted. The rate of the GAN-generated images was examined by comparing
the t-SNE plots of the generated images and the original MNIST images. It was
found that the GAN- generated images were similar to the original images but
had some differences in the distribution of the features. It is believed that
this study provides a useful evaluation method for assessing the quality of
GAN-generated images and can help to improve their generation in the future.
- Abstract(参考訳): MNISTデータセット上のGAN生成画像の品質を,t分散確率的近傍埋め込み(t-SNE)可視化を用いて,元の画像と比較した。
GANはデータセットを使って画像を生成し、すべての合成画像を生成した結果、対応するラベルを保存した。
生成した画像と元のmnistデータセットの寸法をt-sneを用いて削減し,その埋め込みをプロットした。
生成した画像のt-SNEプロットと元のMNIST画像を比較し,GAN生成画像の速度を検討した。
GAN生成画像は元の画像と似ているが,特徴の分布に若干の違いがあることが判明した。
本研究は,GAN生成画像の品質評価に有用な評価手法を提供するとともに,今後の画像生成の改善に寄与すると考えられる。
関連論文リスト
- Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - T-GD: Transferable GAN-generated Images Detection Framework [16.725880610265378]
本稿では,Transferable GAN-images Detection framework T-GDを提案する。
T-GDは教師と学生モデルから構成されており、相互に反復的に教え、評価し、検出性能を向上させることができる。
学生モデルを訓練するために、音源とターゲットデータセットを混合してノイズを注入し、ウェイト変動を制約して開始点を保存する。
論文 参考訳(メタデータ) (2020-08-10T13:20:19Z) - Detection, Attribution and Localization of GAN Generated Images [24.430919035100317]
本稿では,GAN生成画像の検出,属性化,ローカライズを行う新しい手法を提案する。
深層学習ネットワークはこれらの特徴に基づいてトレーニングされ、これらのGAN生成/操作された画像を検出し、属性付けし、ローカライズする。
5つのGANデータセットに対するアプローチを大規模に評価した結果,GAN生成画像の検出には有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-20T20:49:34Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Deep Snow: Synthesizing Remote Sensing Imagery with Generative
Adversarial Nets [0.5249805590164901]
GAN(Generative Adversarial Network)は、リモートセンシング画像における現実的な広汎な変化を生成するために用いられる。
生成画像と実画像の深い埋め込みに基づく変換品質指標について検討する。
論文 参考訳(メタデータ) (2020-05-18T17:05:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。