論文の概要: Classify and Generate: Using Classification Latent Space Representations
for Image Generations
- arxiv url: http://arxiv.org/abs/2004.07543v2
- Date: Tue, 14 Dec 2021 08:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:00:44.405688
- Title: Classify and Generate: Using Classification Latent Space Representations
for Image Generations
- Title(参考訳): 分類と生成:画像生成のための分類潜在空間表現を用いる
- Authors: Saisubramaniam Gopalakrishnan, Pranshu Ranjan Singh, Yasin Yazici,
Chuan-Sheng Foo, Vijay Chandrasekhar, ArulMurugan Ambikapathi
- Abstract要約: 本稿では,操作された教師付き潜在表現を用いて,与えられたクラスに属する新しいサンプルを再構成・生成する識別モデリングフレームワークを提案する。
ReGeneは、既存の条件生成モデルよりも高い分類精度を持ち、FIDの点で競争力がある。
- 参考スコア(独自算出の注目度): 17.184760662429834
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Utilization of classification latent space information for downstream
reconstruction and generation is an intriguing and a relatively unexplored
area. In general, discriminative representations are rich in class-specific
features but are too sparse for reconstruction, whereas, in autoencoders the
representations are dense but have limited indistinguishable class-specific
features, making them less suitable for classification. In this work, we
propose a discriminative modeling framework that employs manipulated supervised
latent representations to reconstruct and generate new samples belonging to a
given class. Unlike generative modeling approaches such as GANs and VAEs that
aim to model the data manifold distribution, Representation based Generations
(ReGene) directly represent the given data manifold in the classification
space. Such supervised representations, under certain constraints, allow for
reconstructions and controlled generations using an appropriate decoder without
enforcing any prior distribution. Theoretically, given a class, we show that
these representations when smartly manipulated using convex combinations retain
the same class label. Furthermore, they also lead to the novel generation of
visually realistic images. Extensive experiments on datasets of varying
resolutions demonstrate that ReGene has higher classification accuracy than
existing conditional generative models while being competitive in terms of FID.
- Abstract(参考訳): 下流の復元と生成における分類的潜在空間情報の活用は興味深く、比較的未開拓な領域である。
一般に、判別表現はクラス固有の特徴に富んでいるが、再構成には不十分であるが、オートエンコーダでは表現は密度が高いがクラス固有の特徴に制限があり、分類に適さない。
本研究では,教師付き潜在表現を用いて与えられたクラスに属する新しいサンプルを再構築し,生成する識別モデリングフレームワークを提案する。
データ多様体分布をモデル化することを目的としたGANやVAEのような生成的モデリングアプローチとは異なり、Representation Based Generations (ReGene) は、与えられたデータ多様体を分類空間で直接表現する。
このような監督された表現は、一定の制約の下で、適切なデコーダを使用して、事前の分布を強制することなく、再構成と制御世代を可能にする。
理論的には、あるクラスが与えられたとき、これらの表現が凸結合を用いてスマートに操作された場合、同じクラスラベルを持つことを示す。
さらに、視覚的に写実的な画像の新たな生成にも繋がる。
様々な解像度のデータセットに対する大規模な実験により、ReGeneは既存の条件生成モデルよりも高い分類精度を持ち、FIDの点で競合することを示した。
関連論文リスト
- Ref-Diff: Zero-shot Referring Image Segmentation with Generative Models [68.73086826874733]
本稿では,画像分割を参照するための新しい参照拡散分割器(Referring Diffusional segmentor, Ref-Diff)を提案する。
提案生成器がなければ、生成モデルだけで既存のSOTAの弱教師付きモデルに匹敵する性能を達成できることを実証する。
このことは、生成モデルがこのタスクに有益であり、より優れたセグメンテーションを参照するために識別モデルを補完できることを示している。
論文 参考訳(メタデータ) (2023-08-31T14:55:30Z) - Generative Prompt Model for Weakly Supervised Object Localization [108.79255454746189]
判別対象の少ない部分のローカライズのための生成的プロンプトモデル(GenPromp)を提案する。
トレーニング中、GenPrompはイメージカテゴリラベルを、生成モデルに供給される学習可能なプロンプト埋め込みに変換する。
CUB-200-2011 と ILSVRC の実験では、GenPromp がそれぞれ最高の識別モデルを上回っている。
論文 参考訳(メタデータ) (2023-07-19T05:40:38Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Neural Representations Reveal Distinct Modes of Class Fitting in
Residual Convolutional Networks [5.1271832547387115]
ニューラル表現の確率モデルを利用して、残余ネットワークがクラスにどのように適合するかを調べる。
調査対象モデルのクラスは均一に適合していないことがわかった。
神経表現の未発見構造は, トレーニング例の堅牢性と, 対向記憶の相関性を示す。
論文 参考訳(メタデータ) (2022-12-01T18:55:58Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Unsupervised Learning of Structured Representations via Closed-Loop
Transcription [21.78655495464155]
本稿では,識別目的と生成目的の両方を兼ね備えた統一表現を学習するための教師なし手法を提案する。
統一表現は、両方を持つことの相互利益を享受できることが示される。
これらの構造化された表現は、最先端の教師なし識別表現に近い分類を可能にする。
論文 参考訳(メタデータ) (2022-10-30T09:09:05Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Understanding invariance via feedforward inversion of discriminatively
trained classifiers [30.23199531528357]
過去の研究では、出力ログに余計な視覚的詳細が残っていることが判明した。
極めて高い忠実度を再現するフィードフォワードインバージョンモデルを開発する。
私たちのアプローチはBigGANをベースにしており、1ホットクラスのラベルの代わりにロジットのコンディショニングを行います。
論文 参考訳(メタデータ) (2021-03-15T17:56:06Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。