論文の概要: Synthesize-It-Classifier: Learning a Generative Classifier through
RecurrentSelf-analysis
- arxiv url: http://arxiv.org/abs/2103.14212v1
- Date: Fri, 26 Mar 2021 02:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:46:14.675328
- Title: Synthesize-It-Classifier: Learning a Generative Classifier through
RecurrentSelf-analysis
- Title(参考訳): 逐次自己分析による生成型分類器の学習
- Authors: Arghya Pal, Rapha Phan, KokSheik Wong
- Abstract要約: 本研究では,高分解能,フォトリアリスティック,多彩な画像を大規模に合成することにより,画像分類ネットワークの生成能力を示す。
Synthesize-It-Classifier(STIC)と呼ばれる全体的な方法論は、データ分布の密度を推定するために明示的なジェネレータネットワークを必要としません。
ImageNetデータセット上で合成された画像の反復描画を示すAttentive-STICネットワークを実証する。
- 参考スコア(独自算出の注目度): 9.029985847202667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we show the generative capability of an image classifier
network by synthesizing high-resolution, photo-realistic, and diverse images at
scale. The overall methodology, called Synthesize-It-Classifier (STIC), does
not require an explicit generator network to estimate the density of the data
distribution and sample images from that, but instead uses the classifier's
knowledge of the boundary to perform gradient ascent w.r.t. class logits and
then synthesizes images using Gram Matrix Metropolis Adjusted Langevin
Algorithm (GRMALA) by drawing on a blank canvas. During training, the
classifier iteratively uses these synthesized images as fake samples and
re-estimates the class boundary in a recurrent fashion to improve both the
classification accuracy and quality of synthetic images. The STIC shows the
mixing of the hard fake samples (i.e. those synthesized by the one hot class
conditioning), and the soft fake samples (which are synthesized as a convex
combination of classes, i.e. a mixup of classes) improves class interpolation.
We demonstrate an Attentive-STIC network that shows an iterative drawing of
synthesized images on the ImageNet dataset that has thousands of classes. In
addition, we introduce the synthesis using a class conditional score classifier
(Score-STIC) instead of a normal image classifier and show improved results on
several real-world datasets, i.e. ImageNet, LSUN, and CIFAR 10.
- Abstract(参考訳): 本研究では,高分解能,フォトリアリスティック,多彩な画像を大規模に合成することで,画像分類器ネットワークの生成能力を示す。
Synthesize-It-Classifier (STIC)と呼ばれる全体的な方法論は、データ分布とサンプル画像の密度を推定するために明示的なジェネレータネットワークを必要としない。
クラスロジットはGram Matrix Metropolis Adjusted Langevin Algorithm (GRMALA) を使って画像を合成し、空白のキャンバスに描画する。
トレーニング中、分類器はこれらの合成画像を偽のサンプルとして反復的に使用し、クラス境界を反復的に再推定し、合成画像の分類精度と品質を改善する。
STICはハードフェイクサンプル(すなわち)の混合を示す。
1つのホットクラスコンディショニングによって合成されたもの)とソフトフェイクサンプル(クラスの凸結合として合成されるもの)。
クラスの混成) クラスの補間を改善する。
我々は、数千のクラスを持つImageNetデータセット上で、合成画像の反復描画を示すAttentive-STICネットワークを実演する。
さらに,通常の画像分類器の代わりに,クラス条件スコア分類器(Score-STIC)を用いて合成を行い,実世界の複数のデータセットで改善された結果を示す。
ImageNet、LSUN、CIFAR 10。
関連論文リスト
- Fine-grained Text to Image Synthesis [4.742847798631037]
微細なテキストから画像合成は、異なるカテゴリに属するテキストから画像を生成する。
補助分類器は、識別器が画像のクラスを分類するのを手助けし、生成器がより正確なきめ細かい画像を合成するのを手助けする。
我々はCUB-200-2011の鳥のデータセットとオックスフォード102の花のデータセットを用いて,いくつかの最先端手法の評価を行った。
論文 参考訳(メタデータ) (2024-12-10T05:09:52Z) - RATLIP: Generative Adversarial CLIP Text-to-Image Synthesis Based on Recurrent Affine Transformations [0.0]
条件付きアフィン変換(CAT)は、画像中のコンテンツ合成を制御するために、GANの異なる層に適用されている。
まず、各レイヤがグローバル情報にアクセスできるようにするために、CATとRAT(Recurrent Neural Network)をモデル化する。
次に、リカレントニューラルネットワークにおける情報忘れの特性を軽減するために、RAT間のシャッフルアテンションを導入する。
論文 参考訳(メタデータ) (2024-05-13T18:49:18Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。