論文の概要: Multi-class Generative Adversarial Nets for Semi-supervised Image
Classification
- arxiv url: http://arxiv.org/abs/2102.06944v1
- Date: Sat, 13 Feb 2021 15:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 16:57:44.718197
- Title: Multi-class Generative Adversarial Nets for Semi-supervised Image
Classification
- Title(参考訳): 半監督画像分類のためのマルチクラスジェネラティブ・アドバーサリー・ネット
- Authors: Saman Motamed and Farzad Khalvati
- Abstract要約: 類似した画像がGANを一般化させ、画像の分類が貧弱になることを示す。
半教師付き学習フレームワークにおいて、画像の類似クラスにおけるマルチクラス分類を改善するため、GANの従来の訓練の修正を提案する。
- 参考スコア(独自算出の注目度): 0.17404865362620794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From generating never-before-seen images to domain adaptation, applications
of Generative Adversarial Networks (GANs) spread wide in the domain of vision
and graphics problems. With the remarkable ability of GANs in learning the
distribution and generating images of a particular class, they can be used for
semi-supervised classification tasks. However, the problem is that if two
classes of images share similar characteristics, the GAN might learn to
generalize and hinder the classification of the two classes. In this paper, we
use various images from MNIST and Fashion-MNIST datasets to illustrate how
similar images cause the GAN to generalize, leading to the poor classification
of images. We propose a modification to the traditional training of GANs that
allows for improved multi-class classification in similar classes of images in
a semi-supervised learning framework.
- Abstract(参考訳): 目に見えない画像の生成からドメイン適応まで、GAN(Generative Adversarial Networks)の応用は、視覚とグラフィックの問題の分野で広く広がっています。
特定のクラスの分布を学習し画像を生成するganの顕著な能力により、半教師付き分類タスクに使用できる。
しかし、画像の2つのクラスが類似した特性を持つ場合、ganは2つのクラスの分類を一般化し妨げることを学ぶかもしれない。
本稿では,MNIST と Fashion-MNIST のデータセットから得られた様々な画像を用いて,GAN の一般化を図っている。
半教師付き学習フレームワークにおいて、画像の類似クラスにおけるマルチクラス分類を改善するため、GANの従来の訓練の修正を提案する。
関連論文リスト
- Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Polymorphic-GAN: Generating Aligned Samples across Multiple Domains with
Learned Morph Maps [94.10535575563092]
本稿では,複数の関連ドメインから一貫した画像サンプルを同時に生成できる生成逆ネットワークを提案する。
各ドメインにまたがる共有特徴を学習するポリモルフィックGANと、各ドメインに応じて共有特徴を共有化するためのドメインごとのモルフィック層を提案する。
論文 参考訳(メタデータ) (2022-06-06T21:03:02Z) - Attribute Group Editing for Reliable Few-shot Image Generation [85.52840521454411]
本稿では,画像生成のための新しい編集手法,すなわちAttribute Group Editing (AGE)を提案する。
AGEは、GANで学んだ内部表現を調べ、意味的に意味のある方向を識別する。
論文 参考訳(メタデータ) (2022-03-16T06:54:09Z) - Local and Global GANs with Semantic-Aware Upsampling for Image
Generation [201.39323496042527]
ローカルコンテキストを用いて画像を生成することを検討する。
セマンティックマップをガイダンスとして用いたクラス固有の生成ネットワークを提案する。
最後に,セマンティック・アウェア・アップサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T19:24:25Z) - Vanishing Twin GAN: How training a weak Generative Adversarial Network
can improve semi-supervised image classification [0.17404865362620794]
Generative Adversarial Networksは、半教師付きフレームワークでランダムノイズのリアルなイメージへのマッピングを学習することができる。
未知のクラスが既知のクラスと類似した特性を共有する場合、GANは両方のクラスに似た画像の一般化と生成を学ぶことができる。
弱いGANをトレーニングし、通常のGANと平行な出力画像を使用することで、Vanishing Twinトレーニングは、画像類似性が分類タスクを損なうような半教師付き画像分類を改善する。
論文 参考訳(メタデータ) (2021-03-03T16:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。