論文の概要: Jigsaw-VAE: Towards Balancing Features in Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2005.05496v1
- Date: Tue, 12 May 2020 00:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:16:21.460456
- Title: Jigsaw-VAE: Towards Balancing Features in Variational Autoencoders
- Title(参考訳): Jigsaw-VAE: 変分オートエンコーダのバランシング機能を目指す
- Authors: Saeid Asgari Taghanaki, Mohammad Havaei, Alex Lamb, Aditya Sanghi, Ara
Danielyan, Tonya Custis
- Abstract要約: VAE潜伏変数は、しばしば他の変数を犠牲にして、変動の要因に焦点をあてることが示される。
本稿では,機能不均衡問題に対処するVOEの正規化手法を提案する。
- 参考スコア(独自算出の注目度): 18.315247344611727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The latent variables learned by VAEs have seen considerable interest as an
unsupervised way of extracting features, which can then be used for downstream
tasks. There is a growing interest in the question of whether features learned
on one environment will generalize across different environments. We
demonstrate here that VAE latent variables often focus on some factors of
variation at the expense of others - in this case we refer to the features as
``imbalanced''. Feature imbalance leads to poor generalization when the latent
variables are used in an environment where the presence of features changes.
Similarly, latent variables trained with imbalanced features induce the VAE to
generate less diverse (i.e. biased towards dominant features) samples. To
address this, we propose a regularization scheme for VAEs, which we show
substantially addresses the feature imbalance problem. We also introduce a
simple metric to measure the balance of features in generated images.
- Abstract(参考訳): VAEによって学習された潜伏変数は、機能抽出の教師なしの方法としてかなりの関心を集めており、下流タスクに使用できる。
ある環境で学んだ機能が異なる環境にまたがって一般化するかどうかという問題に対する関心が高まっている。
ここでは、VAE潜伏変数が、他の変数を犠牲にして、変動のいくつかの要因に焦点を当てることがよく示されています。
機能の不均衡は、機能の存在が変化する環境で潜在変数が使用される場合の一般化が不十分になる。
同様に、不均衡な特徴で訓練された潜伏変数はVAEを誘導し、より多様な(すなわち支配的な特徴に偏った)サンプルを生成する。
そこで本稿では,VAEの正規化方式を提案する。
また,生成画像における特徴のバランスを測定するための簡易指標も導入した。
関連論文リスト
- Understanding the Role of Equivariance in Self-supervised Learning [51.56331245499712]
同変自己教師学習(E-SSL)は、拡張に注意する機能を学ぶ。
我々は、同変タスクと分類タスクの相乗効果を生成するE-SSLにおける重要な説明アウト効果を同定する。
E-SSLの実用設計の原則をいくつか明らかにする。
論文 参考訳(メタデータ) (2024-11-10T16:09:47Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Out-of-Variable Generalization for Discriminative Models [13.075802230332298]
機械学習では、エージェントが新しい環境でうまく機能する能力は知性の重要な側面である。
我々は、これまで共同で観測されなかった変数を持つ環境に関する、$textitout-of-variable$ generalizationを調査した。
本稿では,重なり合うが相違する因果予測器の集合に直面する場合,非自明な変数外一般化性能を示す手法を提案する。
論文 参考訳(メタデータ) (2023-04-16T21:29:54Z) - Unleashing the Power of Graph Data Augmentation on Covariate
Distribution Shift [50.98086766507025]
本稿では,AIA(Adversarial Invariant Augmentation)という,シンプルで効率の良いデータ拡張戦略を提案する。
AIAは、拡張プロセス中に元の安定した特徴を同時に保存しながら、新しい環境をエクスポーレーションし、生成することを目的としている。
論文 参考訳(メタデータ) (2022-11-05T07:55:55Z) - Equivariant Disentangled Transformation for Domain Generalization under
Combination Shift [91.38796390449504]
ドメインとラベルの組み合わせは、トレーニング中に観察されるのではなく、テスト環境に現れる。
我々は、同型の概念、同値性、および整合性の定義に基づく結合シフト問題の一意的な定式化を提供する。
論文 参考訳(メタデータ) (2022-08-03T12:31:31Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Consistency Regularization for Variational Auto-Encoders [14.423556966548544]
変分自動エンコーダ(VAE)は教師なし学習の強力なアプローチである。
本稿では,VAEの整合性を強制する正規化手法を提案する。
論文 参考訳(メタデータ) (2021-05-31T10:26:32Z) - Neural Decomposition: Functional ANOVA with Variational Autoencoders [9.51828574518325]
変分オートエンコーダ (VAEs) は次元減少に対する一般的なアプローチとなっている。
VAEのブラックボックスの性質のため、医療やゲノミクスの応用には限界があった。
本研究では,条件付きVAEの変動源の特徴付けに焦点をあてる。
論文 参考訳(メタデータ) (2020-06-25T10:29:13Z) - NestedVAE: Isolating Common Factors via Weak Supervision [45.366986365879505]
我々は、バイアス低減の課題と、ドメイン間で共通する分離要因の関係を同定する。
共通因子を分離するために、潜伏変数モデルの理論と情報ボトルネック理論を組み合わせる。
共有重みを持つ2つの外部VAEは入力を再構成し、潜伏空間を推論し、一方、ネストされたVAEはペア化された画像の潜伏表現から1つの画像の潜伏表現を再構成しようとする。
論文 参考訳(メタデータ) (2020-02-26T15:49:57Z) - Be Like Water: Robustness to Extraneous Variables Via Adaptive Feature
Normalization [17.829013101192295]
外部変数は特定のタスクに無関係な変数であるが、利用可能なデータの分布に大きな影響を及ぼす変数である。
このような変数の存在は、ディープラーニングモデルの性能を低下させる可能性があることを示す。
我々は,例えば正規化のように,推測中に特徴統計量を適応的に推定することが,この問題に対処することを示す。
論文 参考訳(メタデータ) (2020-02-10T18:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。