論文の概要: NashAE: Disentangling Representations through Adversarial Covariance
Minimization
- arxiv url: http://arxiv.org/abs/2209.10677v1
- Date: Wed, 21 Sep 2022 22:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 12:49:40.477644
- Title: NashAE: Disentangling Representations through Adversarial Covariance
Minimization
- Title(参考訳): nashae: 逆共分散最小化による分散表現
- Authors: Eric Yeats, Frank Liu, David Womble, Hai Li
- Abstract要約: 本研究では,基礎となる変動プロファイルの事前知識に依存しない高次元データにおいて,変動要因を分散させる自己教師手法を提案する。
我々は,NashAEの信頼性が向上し,学習潜在表現における有能なデータ特性を捉える能力が向上したことを示す。
- 参考スコア(独自算出の注目度): 8.22507807169023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a self-supervised method to disentangle factors of variation in
high-dimensional data that does not rely on prior knowledge of the underlying
variation profile (e.g., no assumptions on the number or distribution of the
individual latent variables to be extracted). In this method which we call
NashAE, high-dimensional feature disentanglement is accomplished in the
low-dimensional latent space of a standard autoencoder (AE) by promoting the
discrepancy between each encoding element and information of the element
recovered from all other encoding elements. Disentanglement is promoted
efficiently by framing this as a minmax game between the AE and an ensemble of
regression networks which each provide an estimate of an element conditioned on
an observation of all other elements. We quantitatively compare our approach
with leading disentanglement methods using existing disentanglement metrics.
Furthermore, we show that NashAE has increased reliability and increased
capacity to capture salient data characteristics in the learned latent
representation.
- Abstract(参考訳): 本研究では,従来の変動プロファイルの知識に依存しない高次元データ(例えば,抽出すべき個々の潜伏変数の数や分布に関する仮定は存在しない)の変動係数を乱す自己教師手法を提案する。
NashAEと呼ぶこの方法は、各エンコーディング要素と他のエンコーディング要素から回収された要素の情報との相違を促進させることにより、標準オートエンコーダ(AE)の低次元潜在空間において高次元特徴分散を実現する。
アンタングルメントは、これをAEと回帰ネットワークのアンサンブルとのミニマックスゲームとしてフレーミングすることで効率よく促進され、それぞれが他のすべての要素の観測に基づいて条件付けられた要素の見積もりを提供する。
提案手法を,既存の乱れ指標を用いた先行的乱れ手法と定量的に比較する。
さらに,NashAEの信頼性は向上し,学習した潜在表現における有能なデータ特性を捉える能力も向上した。
関連論文リスト
- Disentanglement with Factor Quantized Variational Autoencoders [11.086500036180222]
本稿では,生成因子に関する基礎的真理情報をモデルに提供しない離散変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 離散表現を学習する上で, 連続表現を学習することの利点を実証する。
FactorQVAEと呼ばれる手法は,最適化に基づく不整合アプローチと離散表現学習を組み合わせた最初の手法である。
論文 参考訳(メタデータ) (2024-09-23T09:33:53Z) - Hodge-Aware Contrastive Learning [101.56637264703058]
単純コンプレックスは、マルチウェイ依存によるデータのモデリングに有効である。
我々は、単純なデータを処理するための対照的な自己教師付き学習手法を開発した。
論文 参考訳(メタデータ) (2023-09-14T00:40:07Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - Identifiable Energy-based Representations: An Application to Estimating
Heterogeneous Causal Effects [83.66276516095665]
条件付き平均治療効果(CATEs)は、多数の個体にまたがる不均一性について理解することができる。
典型的なCATE学習者は、CATEが識別可能であるために、すべての共起変数が測定されていると仮定する。
本稿では,ノイズコントラッシブ損失関数を用いて,変数の低次元表現を学習するエネルギーベースモデルを提案する。
論文 参考訳(メタデータ) (2021-08-06T10:39:49Z) - Evaluating Disentanglement of Structured Latent Representations [3.756550107432323]
我々は,構造化潜在表現の階層レベルで動作する最初の多層異方性メトリクスを設計する。
我々の測定基準は、潜在スロット間のオブジェクト分離と内部スロットの絡み合いの両方を共通の数学的枠組みに統一する。
論文 参考訳(メタデータ) (2021-01-11T17:24:01Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Learning Flat Latent Manifolds with VAEs [16.725880610265378]
本稿では、ユークリッド計量がデータポイント間の類似性のプロキシとなる変分自動エンコーダのフレームワークの拡張を提案する。
我々は、変分オートエンコーダで一般的に使用されるコンパクトな以前のものを、最近発表されたより表現力のある階層型に置き換える。
提案手法は,ビデオ追跡ベンチマークを含む,さまざまなデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-02-12T09:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。