論文の概要: Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology
- arxiv url: http://arxiv.org/abs/2006.03680v5
- Date: Wed, 17 Mar 2021 21:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 02:31:19.612739
- Title: Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology
- Title(参考訳): 多様体トポロジーによる深部生成モデルの絡み合いの評価
- Authors: Sharon Zhou, Eric Zelikman, Fred Lu, Andrew Y. Ng, Gunnar Carlsson,
Stefano Ermon
- Abstract要約: 本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
- 参考スコア(独自算出の注目度): 66.06153115971732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning disentangled representations is regarded as a fundamental task for
improving the generalization, robustness, and interpretability of generative
models. However, measuring disentanglement has been challenging and
inconsistent, often dependent on an ad-hoc external model or specific to a
certain dataset. To address this, we present a method for quantifying
disentanglement that only uses the generative model, by measuring the
topological similarity of conditional submanifolds in the learned
representation. This method showcases both unsupervised and supervised
variants. To illustrate the effectiveness and applicability of our method, we
empirically evaluate several state-of-the-art models across multiple datasets.
We find that our method ranks models similarly to existing methods. We make
ourcode publicly available at
https://github.com/stanfordmlgroup/disentanglement.
- Abstract(参考訳): 不整合表現の学習は、生成モデルの一般化、堅牢性、解釈性を改善するための基本的な課題とみなされる。
しかし、歪みの測定は困難で一貫性がなく、しばしばアドホックな外部モデルや特定のデータセットに依存している。
そこで本研究では, 学習表現における条件付き部分多様体の位相的類似度を測定し, 生成モデルのみを用いた不整合の定量化手法を提案する。
この方法は教師なしと教師なしの両方の変種を示す。
提案手法の有効性と適用性を説明するため,複数のデータセットにまたがる複数の最先端モデルを実験的に評価した。
我々の手法は既存の手法と同様にモデルをランク付けする。
ourcodeはhttps://github.com/stanfordmlgroup/disentanglementで公開されている。
関連論文リスト
- Embedding-based statistical inference on generative models [10.948308354932639]
生成モデルの埋め込みに基づく表現に関する結果を、古典的な統計的推論設定に拡張する。
類似」の概念の基盤として視点空間を用いることは、複数のモデルレベルの推論タスクに有効であることを示す。
論文 参考訳(メタデータ) (2024-10-01T22:28:39Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - Comparing Foundation Models using Data Kernels [13.099029073152257]
基礎モデルの埋め込み空間幾何学を直接比較するための方法論を提案する。
提案手法はランダムグラフ理論に基づいており, 埋め込み類似性の有効な仮説検証を可能にする。
本稿では, 距離関数を付加したモデルの多様体が, 下流の指標と強く相関することを示す。
論文 参考訳(メタデータ) (2023-05-09T02:01:07Z) - Bayesian Beta-Bernoulli Process Sparse Coding with Deep Neural Networks [11.937283219047984]
深部離散潜在変数モデルに対して近似的推論法が提案されている。
このような深層モデルの離散潜在表現を学習するための非パラメトリック反復アルゴリズムを提案する。
提案手法は,異なる特徴を持つデータセット間で評価し,その結果を現在の補正近似推定法と比較する。
論文 参考訳(メタデータ) (2023-03-14T20:50:12Z) - Evaluating Disentanglement in Generative Models Without Knowledge of
Latent Factors [71.79984112148865]
本稿では,学習中に提示される学習力学に基づいて生成モデルのランキング付けを行う手法を提案する。
本手法は,近年の解離の理論的特徴から着想を得たものであり,その根底にある潜伏因子の監督は不要である。
論文 参考訳(メタデータ) (2022-10-04T17:27:29Z) - Model-free Subsampling Method Based on Uniform Designs [5.661822729320697]
我々は,既存の一様設計に基づく低GEFDデータ駆動サブサンプリング手法を開発した。
我々の手法は様々なモデル仕様の下で頑健であり、他の一般的なサブサンプリング手法は性能が低い。
論文 参考訳(メタデータ) (2022-09-08T07:47:56Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。