論文の概要: Decoupling Global and Local Representations via Invertible Generative
Flows
- arxiv url: http://arxiv.org/abs/2004.11820v2
- Date: Mon, 15 Mar 2021 20:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:05:26.459622
- Title: Decoupling Global and Local Representations via Invertible Generative
Flows
- Title(参考訳): 可逆生成流による大域表現と局所表現の分離
- Authors: Xuezhe Ma, Xiang Kong, Shanghang Zhang, Eduard Hovy
- Abstract要約: 標準画像ベンチマークによる実験結果から, 密度推定, 画像生成, 教師なし表現学習の観点から, モデルの有効性が示された。
この研究は、確率に基づく目的を持つ生成モデルが疎結合表現を学習でき、明示的な監督を必要としないことを示した。
- 参考スコア(独自算出の注目度): 47.366299240738094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a new generative model that is capable of
automatically decoupling global and local representations of images in an
entirely unsupervised setting, by embedding a generative flow in the VAE
framework to model the decoder. Specifically, the proposed model utilizes the
variational auto-encoding framework to learn a (low-dimensional) vector of
latent variables to capture the global information of an image, which is fed as
a conditional input to a flow-based invertible decoder with architecture
borrowed from style transfer literature. Experimental results on standard image
benchmarks demonstrate the effectiveness of our model in terms of density
estimation, image generation and unsupervised representation learning.
Importantly, this work demonstrates that with only architectural inductive
biases, a generative model with a likelihood-based objective is capable of
learning decoupled representations, requiring no explicit supervision. The code
for our model is available at https://github.com/XuezheMax/wolf.
- Abstract(参考訳): 本稿では,vaeフレームワークに生成フローを組み込んでデコーダをモデル化することにより,完全に教師なしな設定で画像のグローバル表現とローカル表現を自動的に分離できる新しい生成モデルを提案する。
具体的には,フローベース非可逆デコーダに条件入力として入力される画像のグローバルな情報を,スタイル転送文献から借用したアーキテクチャを用いて,遅延変数の(低次元)ベクトルを学習する。
標準画像ベンチマーク実験の結果, 密度推定, 画像生成, 教師なし表現学習において, モデルの有効性が示された。
重要なことは、アーキテクチャ的帰納バイアスだけでは、可能性に基づく目的を持つ生成モデルは疎結合表現を学習でき、明示的な監督を必要としないことを示している。
私たちのモデルのコードはhttps://github.com/xuezhemax/wolf.orgから入手できます。
関連論文リスト
- SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - Improving Few-shot Image Generation by Structural Discrimination and
Textural Modulation [10.389698647141296]
画像生成の目的は、このカテゴリからいくつかの画像が与えられた場合、あるカテゴリに対して可塑性で多様な画像を生成することである。
既存のアプローチでは、異なる画像をグローバルに補間するか、事前に定義された係数で局所表現を融合する。
本稿では,内部局所表現に外部意味信号を注入する新しいメカニズムを提案する。
論文 参考訳(メタデータ) (2023-08-30T16:10:21Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z) - SIR: Self-supervised Image Rectification via Seeing the Same Scene from
Multiple Different Lenses [82.56853587380168]
本稿では、異なるレンズからの同一シーンの歪み画像の補正結果が同一であるべきという重要な知見に基づいて、新しい自己監督画像補正法を提案する。
我々は、歪みパラメータから修正画像を生成し、再歪み画像を生成するために、微分可能なワープモジュールを利用する。
本手法は,教師付きベースライン法や代表的最先端手法と同等あるいはそれ以上の性能を実現する。
論文 参考訳(メタデータ) (2020-11-30T08:23:25Z) - Toward a Controllable Disentanglement Network [22.968760397814993]
本稿では, 画像編集における歪みの程度を制御し, 歪み強度と復元品質のバランスをとることにより, 歪み画像表現を学習する2つの重要な問題に対処する。
ソフトターゲット表現の実際の値空間を探索することにより、指定された特性を持つ新規な画像を合成することができる。
論文 参考訳(メタデータ) (2020-01-22T16:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。