論文の概要: Augmentation-Interpolative AutoEncoders for Unsupervised Few-Shot Image
Generation
- arxiv url: http://arxiv.org/abs/2011.13026v1
- Date: Wed, 25 Nov 2020 21:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:09:38.551550
- Title: Augmentation-Interpolative AutoEncoders for Unsupervised Few-Shot Image
Generation
- Title(参考訳): 教師なしFewショット画像生成のための拡張補間オートエンコーダ
- Authors: Davis Wertheimer, Omid Poursaeed and Bharath Hariharan
- Abstract要約: Augmentation-Interpolative AutoEncodersは、いくつかの参照画像から新しいオブジェクトの現実的なイメージを合成する。
我々の手順はシンプルで軽量であり、広範囲に一般化されており、訓練中にカテゴリラベルやその他の監督を必要としない。
- 参考スコア(独自算出の注目度): 45.380129419065746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We aim to build image generation models that generalize to new domains from
few examples. To this end, we first investigate the generalization properties
of classic image generators, and discover that autoencoders generalize
extremely well to new domains, even when trained on highly constrained data. We
leverage this insight to produce a robust, unsupervised few-shot image
generation algorithm, and introduce a novel training procedure based on
recovering an image from data augmentations. Our Augmentation-Interpolative
AutoEncoders synthesize realistic images of novel objects from only a few
reference images, and outperform both prior interpolative models and supervised
few-shot image generators. Our procedure is simple and lightweight, generalizes
broadly, and requires no category labels or other supervision during training.
- Abstract(参考訳): 少数の例から新しい領域に一般化する画像生成モデルの構築を目指している。
そこで本研究では,従来の画像生成装置の一般化特性について検討し,高度に制約されたデータでトレーニングした場合でも,オートエンコーダが新しい領域に極めてよく一般化できることを確かめる。
我々は,この知見を活かして,ロバストで教師なしの少数ショット画像生成アルゴリズムを作成し,データ拡張からの画像復元に基づく新しいトレーニング手順を導入する。
補間補間オートエンコーダは,少数の参照画像から新たなオブジェクトの現実的なイメージを合成し,先行する補間モデルと教師付き少数ショット画像生成器の両方よりも優れる。
我々の手順はシンプルで軽量で、広く一般化されており、訓練中にカテゴリラベルやその他の監督を必要としない。
関連論文リスト
- Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Online Detection of AI-Generated Images [17.30253784649635]
この設定における一般化、Nモデルのトレーニング、および次の(N+k)上でのテストについて研究する。
我々は、この手法を画素予測に拡張し、自動的に生成されたインペイントデータを用いて、強い性能を示す。
また、商用モデルが自動データ生成に利用できないような設定では、画素検出器が合成画像全体に対してのみ訓練可能であるかどうかを評価する。
論文 参考訳(メタデータ) (2023-10-23T17:53:14Z) - Re-Imagen: Retrieval-Augmented Text-to-Image Generator [58.60472701831404]
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
論文 参考訳(メタデータ) (2022-09-29T00:57:28Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Unsupervised Novel View Synthesis from a Single Image [47.37120753568042]
単一の画像からの新しいビュー合成は、オブジェクトの単一入力画像から新しいビューを生成することを目的としている。
本研究の目的は、新しいビュー合成のための条件付き生成モデルの訓練を、完全に教師なしの方法で行えるようにすることで、この仮定を緩和することである。
論文 参考訳(メタデータ) (2021-02-05T16:56:04Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Automated Synthetic-to-Real Generalization [142.41531132965585]
本稿では,レイヤワイズ学習率の選択を自動化するためのテキスト学習最適化(L2O)戦略を提案する。
提案手法は,実データを見たり,トレーニングしたりすることなく,合成から現実への一般化性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2020-07-14T10:57:34Z) - Decoupling Global and Local Representations via Invertible Generative
Flows [47.366299240738094]
標準画像ベンチマークによる実験結果から, 密度推定, 画像生成, 教師なし表現学習の観点から, モデルの有効性が示された。
この研究は、確率に基づく目的を持つ生成モデルが疎結合表現を学習でき、明示的な監督を必要としないことを示した。
論文 参考訳(メタデータ) (2020-04-12T03:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。