論文の概要: Meta Internal Learning
- arxiv url: http://arxiv.org/abs/2110.02900v1
- Date: Wed, 6 Oct 2021 16:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 18:09:32.907678
- Title: Meta Internal Learning
- Title(参考訳): メタ内部学習
- Authors: Raphael Bensadoun, Shir Gur, Tomer Galanti, Lior Wolf
- Abstract要約: 単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
- 参考スコア(独自算出の注目度): 88.68276505511922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Internal learning for single-image generation is a framework, where a
generator is trained to produce novel images based on a single image. Since
these models are trained on a single image, they are limited in their scale and
application. To overcome these issues, we propose a meta-learning approach that
enables training over a collection of images, in order to model the internal
statistics of the sample image more effectively. In the presented meta-learning
approach, a single-image GAN model is generated given an input image, via a
convolutional feedforward hypernetwork $f$. This network is trained over a
dataset of images, allowing for feature sharing among different models, and for
interpolation in the space of generative models. The generated single-image
model contains a hierarchy of multiple generators and discriminators. It is
therefore required to train the meta-learner in an adversarial manner, which
requires careful design choices that we justify by a theoretical analysis. Our
results show that the models obtained are as suitable as single-image GANs for
many common image applications, significantly reduce the training time per
image without loss in performance, and introduce novel capabilities, such as
interpolation and feedforward modeling of novel images.
- Abstract(参考訳): 単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
これらのモデルは単一のイメージでトレーニングされるため、スケールと応用に制限がある。
これらの課題を克服するために,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
提案したメタラーニングアプローチでは、畳み込みフィードフォワードハイパーネットワーク$f$を介して、入力画像から単一イメージのGANモデルを生成する。
このネットワークは画像のデータセット上でトレーニングされ、異なるモデル間の機能共有と生成モデルの空間での補間が可能になる。
生成された単一画像モデルは、複数のジェネレータと判別器の階層を含む。
したがって、メタラーナーを逆向きに訓練することは必要であり、理論的解析によって正当化される設計選択を慎重に行う必要がある。
以上の結果から, 得られたモデルは, 多くの共通画像に適用可能な単一画像GANとして適しており, 画像毎のトレーニング時間を大幅に短縮し, 新規画像の補間やフィードフォワードモデリングといった新たな機能を導入している。
関連論文リスト
- A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Many-to-many Image Generation with Auto-regressive Diffusion Models [59.5041405824704]
本稿では,与えられた画像集合から関連画像系列を生成可能な多対多画像生成のためのドメイン汎用フレームワークを提案する。
我々は,25個の相互接続された画像を含む12Mの合成マルチイメージサンプルを含む,新しい大規模マルチイメージデータセットMISを提案する。
我々はM2Mを学習し、M2Mは多対多生成のための自己回帰モデルであり、各画像は拡散フレームワーク内でモデル化される。
論文 参考訳(メタデータ) (2024-04-03T23:20:40Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - BlendGAN: Learning and Blending the Internal Distributions of Single
Images by Spatial Image-Identity Conditioning [37.21764919074815]
単一画像生成法は、複数のスケールで単一の自然な画像の内部パッチ分布を学習するために設計されている。
複数の画像の内部分布を同時に学習できる拡張フレームワークを提案する。
私たちのBlendGANは、シングルイメージモデルでサポートされていないアプリケーションへの扉を開きます。
論文 参考訳(メタデータ) (2022-12-03T10:38:27Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z) - Improved Techniques for Training Single-Image GANs [44.251222212306764]
生成モデルは、大きなデータセットからではなく、単一のイメージから学習することができる。
1つのサンプルのみから現実的な画像を生成することができるモデルを訓練するためのベストプラクティスを提案する。
私たちのモデルはトレーニングの最大6倍高速で、パラメータが少なく、画像のグローバルな構造をよりよく捉えることができます。
論文 参考訳(メタデータ) (2020-03-25T17:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。