論文の概要: Latent Space Perspicacity and Interpretation Enhancement (LS-PIE)
Framework
- arxiv url: http://arxiv.org/abs/2307.05620v1
- Date: Tue, 11 Jul 2023 03:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 15:56:54.719010
- Title: Latent Space Perspicacity and Interpretation Enhancement (LS-PIE)
Framework
- Title(参考訳): LS-PIE(Latent Space Perspicacity and Interpretation Enhancement)フレームワーク
- Authors: Jesse Stevens, Daniel N. Wilke, Itumeleng Setshedi
- Abstract要約: 本稿では,線形潜在空間の解釈可能性向上のための潜在空間表現を強化するための一般的な枠組みを提案する。
この論文のコンセプトは言語に依存しないが、フレームワークはPythonで記述されている。
ラテント・ランキング(LR)、ラテント・スケーリング(LS)、ラテント・クラスタリング(LC)、ラテント・コンデンシング(LCON)など、いくつかの革新的な拡張が組み込まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear latent variable models such as principal component analysis (PCA),
independent component analysis (ICA), canonical correlation analysis (CCA), and
factor analysis (FA) identify latent directions (or loadings) either ordered or
unordered. The data is then projected onto the latent directions to obtain
their projected representations (or scores). For example, PCA solvers usually
rank the principal directions by explaining the most to least variance, while
ICA solvers usually return independent directions unordered and often with
single sources spread across multiple directions as multiple sub-sources, which
is of severe detriment to their usability and interpretability.
This paper proposes a general framework to enhance latent space
representations for improving the interpretability of linear latent spaces.
Although the concepts in this paper are language agnostic, the framework is
written in Python. This framework automates the clustering and ranking of
latent vectors to enhance the latent information per latent vector, as well as,
the interpretation of latent vectors. Several innovative enhancements are
incorporated including latent ranking (LR), latent scaling (LS), latent
clustering (LC), and latent condensing (LCON).
For a specified linear latent variable model, LR ranks latent directions
according to a specified metric, LS scales latent directions according to a
specified metric, LC automatically clusters latent directions into a specified
number of clusters, while, LCON automatically determines an appropriate number
of clusters into which to condense the latent directions for a given metric.
Additional functionality of the framework includes single-channel and
multi-channel data sources, data preprocessing strategies such as Hankelisation
to seamlessly expand the applicability of linear latent variable models (LLVMs)
to a wider variety of data.
The effectiveness of LR, LS, and LCON are showcased on two crafted
foundational problems with two applied latent variable models, namely, PCA and
ICA.
- Abstract(参考訳): 主成分分析(PCA)、独立成分分析(ICA)、正準相関解析(CCA)、因子分析(FA)といった線形潜在変数モデルでは、順序付けまたは非順序付けのいずれかの遅延方向(または負荷)を識別する。
データは潜在方向へ投影され、投影された表現(またはスコア)を得る。
例えば、PCAソルバは、最も最も少なくともばらつきを説明することで、主方向をランク付けするが、ICAソルバは通常、独立方向を無秩序に返却し、しばしば複数のサブソースとして複数の方向をまたがる単一のソースを持つ。
本稿では,線形潜在空間の解釈性を改善するために,潜在空間表現を強化する汎用フレームワークを提案する。
この論文のコンセプトは言語に依存しないが、フレームワークはpythonで書かれている。
このフレームワークは潜在ベクトルのクラスタリングとランク付けを自動化し、潜在ベクトル毎の潜時情報を強化するとともに、潜時ベクトルの解釈も強化する。
潜時ランキング(lr)、潜時スケーリング(ls)、潜時クラスタリング(lc)、潜時凝縮(lcon)など、いくつかの革新的な機能拡張が組み込まれている。
特定線形潜時変モデルにおいて、LRは指定された計量に従って潜時方向をランク付けし、LSは指定された計量に従って潜時方向をスケールし、LCは自動的に潜時方向を所定の数のクラスタにクラスタし、LCONは所定の計量に対して潜時方向をコンデンスする適切な数のクラスタを自動的に決定する。
フレームワークの追加機能には、単一チャネルとマルチチャネルのデータソース、線形潜在変数モデル(LLVM)の適用性を幅広いデータにシームレスに拡張するHankelisationのようなデータ前処理戦略が含まれる。
LR,LS,LCON の有効性は,PCA と ICA の2つの潜在変数モデルを用いた2つの工芸的基礎問題に対して示される。
関連論文リスト
- Fast Disentangled Slim Tensor Learning for Multi-view Clustering [28.950845031752927]
本稿では,マルチビュークラスタリングのための高速離散スリム学習法(DSTL)を提案する。
頑健なPCAにインスパイアされた特徴冗長性の負の影響を軽減するため、DSTLは、潜在する低次元表現を、各ビューに対する意味的非関連部分と意味的関連部分に分解する。
提案手法は計算効率が高く,効果的に解ける。
論文 参考訳(メタデータ) (2024-11-12T09:57:53Z) - Disentanglement with Factor Quantized Variational Autoencoders [11.086500036180222]
本稿では,生成因子に関する基礎的真理情報をモデルに提供しない離散変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 離散表現を学習する上で, 連続表現を学習することの利点を実証する。
FactorQVAEと呼ばれる手法は,最適化に基づく不整合アプローチと離散表現学習を組み合わせた最初の手法である。
論文 参考訳(メタデータ) (2024-09-23T09:33:53Z) - Graph-based Unsupervised Disentangled Representation Learning via Multimodal Large Language Models [42.17166746027585]
複素データ内の因子化属性とその相互関係を学習するための双方向重み付きグラフベースフレームワークを提案する。
具体的には、グラフの初期ノードとして要素を抽出する$beta$-VAEベースのモジュールを提案する。
これらの相補的加群を統合することで、我々は細粒度、実用性、教師なしの絡み合いをうまく達成できる。
論文 参考訳(メタデータ) (2024-07-26T15:32:21Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - Learning Self-Supervised Low-Rank Network for Single-Stage Weakly and
Semi-Supervised Semantic Segmentation [119.009033745244]
本稿では,単一段階弱教師付きセマンティックセマンティックセマンティックセマンティクス(WSSS)と半教師付きセマンティクスセマンティクスセマンティクス(SSSS)のための自己教師付き低ランクネットワーク(SLRNet)を提案する。
SLRNetは、画像の異なるビューから複数の注意深いLR表現を同時に予測し、正確な擬似ラベルを学習する。
Pascal VOC 2012、COCO、L2IDデータセットの実験では、SLRNetは最先端のWSSSメソッドとSSSSメソッドの両方で、さまざまな設定で優れています。
論文 参考訳(メタデータ) (2022-03-19T09:19:55Z) - Nonlinear ISA with Auxiliary Variables for Learning Speech
Representations [51.9516685516144]
補助変数の存在下では非線型独立部分空間解析(ISA)の理論的枠組みを導入する。
部分空間が独立な教師なし音声表現を学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-25T14:53:09Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。