論文の概要: Enhancing Interpretability of Sparse Latent Representations with Class Information
- arxiv url: http://arxiv.org/abs/2505.14476v1
- Date: Tue, 20 May 2025 15:10:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.454154
- Title: Enhancing Interpretability of Sparse Latent Representations with Class Information
- Title(参考訳): クラス情報を用いたスパース潜在表現の解釈可能性向上
- Authors: Farshad Sangari Abiz, Reshad Hosseini, Babak N. Araabi,
- Abstract要約: 変分オートエンコーダ(VAE)は潜在表現を学習するための強力な生成モデルである。
本稿では, 潜在空間の活性次元が同一クラス内のサンプル間で整合であることを保証することによって, 潜在空間の解釈可能性を高める新しい手法を提案する。
- 参考スコア(独自算出の注目度): 1.2835555561822447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Autoencoders (VAEs) are powerful generative models for learning latent representations. Standard VAEs generate dispersed and unstructured latent spaces by utilizing all dimensions, which limits their interpretability, especially in high-dimensional spaces. To address this challenge, Variational Sparse Coding (VSC) introduces a spike-and-slab prior distribution, resulting in sparse latent representations for each input. These sparse representations, characterized by a limited number of active dimensions, are inherently more interpretable. Despite this advantage, VSC falls short in providing structured interpretations across samples within the same class. Intuitively, samples from the same class are expected to share similar attributes while allowing for variations in those attributes. This expectation should manifest as consistent patterns of active dimensions in their latent representations, but VSC does not enforce such consistency. In this paper, we propose a novel approach to enhance the latent space interpretability by ensuring that the active dimensions in the latent space are consistent across samples within the same class. To achieve this, we introduce a new loss function that encourages samples from the same class to share similar active dimensions. This alignment creates a more structured and interpretable latent space, where each shared dimension corresponds to a high-level concept, or "factor." Unlike existing disentanglement-based methods that primarily focus on global factors shared across all classes, our method captures both global and class-specific factors, thereby enhancing the utility and interpretability of latent representations.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は潜在表現を学習するための強力な生成モデルである。
標準VAEは、高次元空間において、その解釈可能性を制限するすべての次元を活用することにより、分散および非構造化の潜在空間を生成する。
この課題に対処するために、変分スパース符号化(VSC)はスパイク・アンド・スラブの事前分布を導入し、各入力に対してスパース遅延表現をもたらす。
これらのスパース表現は、有限個の活性次元によって特徴づけられ、本質的により解釈可能である。
この利点にもかかわらず、VSCは、同じクラス内のサンプル間で構造化された解釈を提供するのに不足している。
直感的には、同じクラスのサンプルは、それらの属性のバリエーションを許容しながら、同様の属性を共有することが期待されている。
この期待は、その潜在表現においてアクティブな次元の一貫性のあるパターンとして表すべきであるが、VSCはそのような一貫性を強制しない。
本稿では,潜在空間の活性次元が同一クラス内のサンプル間で整合であることを保証することにより,潜在空間の解釈可能性を高める新しい手法を提案する。
これを実現するために、同じクラスのサンプルが同様の活動次元を共有することを奨励する新しい損失関数を導入する。
このアライメントはより構造化され解釈可能なラテント空間を生み出し、それぞれの共有次元は高レベルの概念、すなわち「因子」に対応する。
本手法は,全クラス間で共有されるグローバルな要因に主眼を置いている既存の非絡合型手法とは異なり,グローバルな要因とクラス固有の要因の両方を捕捉し,潜在表現の有用性と解釈性を向上させる。
関連論文リスト
- Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning [0.0]
ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-04-21T13:30:32Z) - Multimodal hierarchical Variational AutoEncoders with Factor Analysis latent space [45.418113011182186]
本研究では,変分オートエンコーダ(VAE)と因子解析潜時空間(FA-VAE)を組み合わせることで,制約に対処する新しい手法を提案する。
FA-VAE法は複数のVAEを用いて連続潜伏空間における各異種データビューのプライベート表現を学習する。
論文 参考訳(メタデータ) (2022-07-19T10:46:02Z) - Domain Generalization via Shuffled Style Assembly for Face Anti-Spoofing [69.80851569594924]
FAS(Generalizable Face Anti-Spoofing)は注目されている。
この作業では、完全な表現をコンテンツとスタイルに分けます。
Shuffled Style Assembly Network (SSAN) は、異なるコンテンツやスタイルの特徴を抽出し、再組み立てするために提案されている。
論文 参考訳(メタデータ) (2022-03-10T12:44:05Z) - Learning Aligned Cross-Modal Representation for Generalized Zero-Shot
Classification [17.177622259867515]
一般化ゼロショット分類(GZSC)のためのアラインド・クロスモーダル表現(adigned Cross-Modal Representations, ACMR)の学習による革新的オートエンコーダネットワークを提案する。
具体的には,学習型分類器によって導かれる潜在部分空間上でのクロスモーダルな潜在特徴のアライメントを強化するために,新しい視覚・セマンティックアライメント(VSA)法を提案する。
さらに,潜伏変数の識別能力を高めるとともに,潜伏変数が崩壊する可能性を低減するための新しい情報拡張モジュール (IEM) を提案する。
論文 参考訳(メタデータ) (2021-12-24T03:35:37Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Unsupervised Domain Adaptation in Semantic Segmentation via Orthogonal
and Clustered Embeddings [25.137859989323537]
本稿では,機能クラスタリング手法に基づく効果的なUnsupervised Domain Adaptation(UDA)戦略を提案する。
識別的クラスタリング性能を高めるために,2つの新しい学習目標を導入する。
論文 参考訳(メタデータ) (2020-11-25T10:06:22Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。