論文の概要: Lost in Latent Space: Disentangled Models and the Challenge of Combinatorial Generalisation
- arxiv url: http://arxiv.org/abs/2204.02283v2
- Date: Fri, 14 Jun 2024 14:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 22:09:03.006600
- Title: Lost in Latent Space: Disentangled Models and the Challenge of Combinatorial Generalisation
- Title(参考訳): 遅延空間における損失: 解離モデルと組合せ一般化の課題
- Authors: Milton L. Montero, Jeffrey S. Bowers, Rui Ponte Costa, Casimir J. H. Ludwig, Gaurav Malhotra,
- Abstract要約: 近年の研究では、非常に不整合な表現を持つ生成モデルは、生成因子値の見当たらない組み合わせに一般化できないことが示されている。
さまざまなデータセットとトレーニング設定で複数のモデルをテストすることで、これらの代替品について検討する。
i) モデルが失敗した場合, エンコーダは未確認の組合せを潜在空間の正しい領域にマッピングできず, (ii) モデルが成功した場合, テスト条件が十分な例を除外しないためかのいずれかである。
- 参考スコア(独自算出の注目度): 8.10897203067601
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent research has shown that generative models with highly disentangled representations fail to generalise to unseen combination of generative factor values. These findings contradict earlier research which showed improved performance in out-of-training distribution settings when compared to entangled representations. Additionally, it is not clear if the reported failures are due to (a) encoders failing to map novel combinations to the proper regions of the latent space or (b) novel combinations being mapped correctly but the decoder/downstream process is unable to render the correct output for the unseen combinations. We investigate these alternatives by testing several models on a range of datasets and training settings. We find that (i) when models fail, their encoders also fail to map unseen combinations to correct regions of the latent space and (ii) when models succeed, it is either because the test conditions do not exclude enough examples, or because excluded generative factors determine independent parts of the output image. Based on these results, we argue that to generalise properly, models not only need to capture factors of variation, but also understand how to invert the generative process that was used to generate the data.
- Abstract(参考訳): 近年の研究では、非常に不整合な表現を持つ生成モデルは、生成因子値の見当たらない組み合わせに一般化できないことが示されている。
これらの結果は、絡み合った表現に比べてトレーニング外分布設定の性能が向上した以前の研究と矛盾する。
また、報告された失敗が原因かどうかも明らかになっていない。
(a)新規な組み合わせを潜伏空間の適切な領域にマッピングできないエンコーダ
(b)新しい組み合わせを正しくマッピングするが、デコーダ/ダウンストリームプロセスは、見知らぬ組み合わせに対して正しい出力をレンダリングすることができない。
さまざまなデータセットとトレーニング設定で複数のモデルをテストすることで、これらの代替品について検討する。
私たちはそれを見つける。
i) モデルが失敗すると、エンコーダは、目に見えない組み合わせを潜在空間の正しい領域にマッピングすることができない。
2) モデルが成功した場合, テスト条件が十分な例を除外していないこと, あるいは生成因子を除外して出力画像の独立部分を決定することが原因である。
これらの結果に基づいて、モデルが適切に一般化するためには、変動要因を捉えるだけでなく、データ生成に使われた生成過程を逆転する方法を理解する必要がある。
関連論文リスト
- Continuous Speculative Decoding for Autoregressive Image Generation [33.05392461723613]
連続評価された自己回帰(AR)画像生成モデルは、離散的傾向よりも顕著な優位性を示している。
投機的復号化は大規模言語モデル(LLM)の加速に有効であることが証明された
この研究は離散トークンから連続空間への投機的復号アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2024-11-18T09:19:15Z) - Conditionally Strongly Log-Concave Generative Models [33.79337785731899]
本稿では, 強い対数対数分布を持つ条件付き確率分布の積にデータ分布を分解する条件付き強対数対数モデルを提案する。
これは効率的なパラメータ推定とサンプリングアルゴリズムにつながり、理論的な保証があるが、データ分布はグローバルなログコンケーブではない。
数値的な結果は、$varphi4$モデルや弱レンズ収束写像のような物理場に対して、以前の研究よりも高分解能で示される。
論文 参考訳(メタデータ) (2023-05-31T20:59:47Z) - Hybrid Open-set Segmentation with Synthetic Negative Data [0.0]
開集合セグメンテーションは、閉集合分類と異常検出を補完することで実現できる。
生成的および識別的手がかりを融合させる新しい異常スコアを提案する。
実験では、計算オーバーヘッドが無視できないにもかかわらず、強力なオープンセット性能を示す。
論文 参考訳(メタデータ) (2023-01-19T11:02:44Z) - Tokenization Consistency Matters for Generative Models on Extractive NLP
Tasks [54.306234256074255]
生成モデルの訓練において一般的に無視されるトークン化の不整合の問題を特定する。
この問題は、入力と出力が無矛盾にトークン化されると、これらのタスクの抽出特性を損なう。
一貫性のあるトークン化では、ドメイン内のデータセットとドメイン外のデータセットの両方で、モデルのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-12-19T23:33:21Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - Sharing pattern submodels for prediction with missing values [12.981974894538668]
機械学習の多くのアプリケーションでは欠落値は避けられず、トレーニング中もテスト時にも課題が提示される。
パターンサブモデル(パターンサブモデル)と呼ばれる別の手法を提案する。これは、テスト時に欠落した値に対して、予測を堅牢にし、パターンサブモデルの予測力を維持または改善させる。
論文 参考訳(メタデータ) (2022-06-22T15:09:40Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Missing Features Reconstruction Using a Wasserstein Generative
Adversarial Imputation Network [0.0]
特徴再構成における生成モデルと非生成モデルの使用について実験的に検討した。
任意条件付き生成オートエンコーダ(VAEAC)とGAIN(Generative Adversarial Imputation Network)を生成モデルの代表として研究した。
WGAIN を GAIN のワッサースタイン修飾法として導入し,欠損度が 30% 以下である場合に最も優れた計算モデルであることが判明した。
論文 参考訳(メタデータ) (2020-06-21T11:53:55Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。