論文の概要: Ensembling with Deep Generative Views
- arxiv url: http://arxiv.org/abs/2104.14551v1
- Date: Thu, 29 Apr 2021 17:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 14:45:02.232203
- Title: Ensembling with Deep Generative Views
- Title(参考訳): 深い生成的見解を持つさま
- Authors: Lucy Chai, Jun-Yan Zhu, Eli Shechtman, Phillip Isola, Richard Zhang
- Abstract要約: 生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
- 参考スコア(独自算出の注目度): 72.70801582346344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent generative models can synthesize "views" of artificial images that
mimic real-world variations, such as changes in color or pose, simply by
learning from unlabeled image collections. Here, we investigate whether such
views can be applied to real images to benefit downstream analysis tasks such
as image classification. Using a pretrained generator, we first find the latent
code corresponding to a given real input image. Applying perturbations to the
code creates natural variations of the image, which can then be ensembled
together at test-time. We use StyleGAN2 as the source of generative
augmentations and investigate this setup on classification tasks involving
facial attributes, cat faces, and cars. Critically, we find that several design
decisions are required towards making this process work; the perturbation
procedure, weighting between the augmentations and original image, and training
the classifier on synthesized images can all impact the result. Currently, we
find that while test-time ensembling with GAN-based augmentations can offer
some small improvements, the remaining bottlenecks are the efficiency and
accuracy of the GAN reconstructions, coupled with classifier sensitivities to
artifacts in GAN-generated images.
- Abstract(参考訳): 最近の生成モデルは、ラベルのない画像コレクションから学習することで、色やポーズの変化のような現実世界の変動を模倣する人工画像のビューを合成することができる。
本稿では,このようなビューを実画像に適用して,画像分類などの下流分析タスクに役立てることができるかを検討する。
事前訓練された生成器を用いて、与えられた実入力画像に対応する潜時符号を求める。
コードに摂動を適用すると、画像の自然なバリエーションが生まれ、テスト時に一緒にアンサンブルできる。
生成促進の源としてStyleGAN2を用い, 顔の特徴, 猫の顔, 自動車などの分類タスクについて検討した。
批判的なことに、このプロセスの動作にはいくつかの設計上の決定が必要である。摂動手順、増大と原画像の間の重み付け、合成画像上の分類器の訓練など、すべてが結果に影響を与える可能性がある。
現在、GANベースの拡張によるテスト時間アンサンブルは、いくつかの小さな改善をもたらすが、残りのボトルネックは、GAN再構成の効率と精度であり、GAN生成画像のアーティファクトに対する分類器の感度が伴っている。
関連論文リスト
- Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Automatic Correction of Internal Units in Generative Neural Networks [15.67941936262584]
GAN(Generative Adversarial Networks)は,合成画像生成において良好な性能を示す。
人工物として知られる、欠陥のある視覚パターンを持つ多数の生成画像が存在する。
本研究では,様々な種類のアーティファクト画像を生成する内部ユニットを自動的に識別する手法を考案する。
論文 参考訳(メタデータ) (2021-04-13T11:46:45Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Synthesize-It-Classifier: Learning a Generative Classifier through
RecurrentSelf-analysis [9.029985847202667]
本研究では,高分解能,フォトリアリスティック,多彩な画像を大規模に合成することにより,画像分類ネットワークの生成能力を示す。
Synthesize-It-Classifier(STIC)と呼ばれる全体的な方法論は、データ分布の密度を推定するために明示的なジェネレータネットワークを必要としません。
ImageNetデータセット上で合成された画像の反復描画を示すAttentive-STICネットワークを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:00:29Z) - Using latent space regression to analyze and leverage compositionality
in GANs [33.381584322411626]
GANの組成特性を理解するためのプローブとして潜在空間への回帰を研究する。
reressorとプリトレーニングされたジェネレータを組み合わせることで、強いイメージを事前に提供し、複合イメージを作成できることが分かりました。
回帰アプローチは,潜在空間での直接編集と比較して,個々の画像部分の局所的な編集を可能にする。
論文 参考訳(メタデータ) (2021-03-18T17:58:01Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Deep Snow: Synthesizing Remote Sensing Imagery with Generative
Adversarial Nets [0.5249805590164901]
GAN(Generative Adversarial Network)は、リモートセンシング画像における現実的な広汎な変化を生成するために用いられる。
生成画像と実画像の深い埋め込みに基づく変換品質指標について検討する。
論文 参考訳(メタデータ) (2020-05-18T17:05:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。