論文の概要: LAVA: Explainability for Unsupervised Latent Embeddings
- arxiv url: http://arxiv.org/abs/2509.21149v1
- Date: Thu, 25 Sep 2025 13:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.938635
- Title: LAVA: Explainability for Unsupervised Latent Embeddings
- Title(参考訳): LAVA: 教師なし遅延埋め込みの説明可能性
- Authors: Ivan Stresec, Joana P. Gonçalves,
- Abstract要約: LAVA(Locality-Aware Variable Associations)は、局所的な埋め込み組織と入力機能との関係を説明するために設計された。
MNIST と単細胞腎データセットの UMAP 埋め込みに基づいて,LAVA が関連する特徴関連を捉えていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised black-box models can be drivers of scientific discovery, but remain difficult to interpret. Crucially, discovery hinges on understanding the model output, which is often a multi-dimensional latent embedding rather than a well-defined target. While explainability for supervised learning usually seeks to uncover how input features are used to predict a target, its unsupervised counterpart should relate input features to the structure of the learned latent space. Adaptations of supervised model explainability for unsupervised learning provide either single-sample or dataset-wide summary explanations. However, without automated strategies of relating similar samples to one another guided by their latent proximity, explanations remain either too fine-grained or too reductive to be meaningful. This is especially relevant for manifold learning methods that produce no mapping function, leaving us only with the relative spatial organization of their embeddings. We introduce Locality-Aware Variable Associations (LAVA), a post-hoc model-agnostic method designed to explain local embedding organization through its relationship with the input features. To achieve this, LAVA represents the latent space as a series of localities (neighborhoods) described in terms of correlations between the original features, and then reveals reoccurring patterns of correlations across the entire latent space. Based on UMAP embeddings of MNIST and a single-cell kidney dataset, we show that LAVA captures relevant feature associations, with visually and biologically relevant local patterns shared among seemingly distant regions of the latent spaces.
- Abstract(参考訳): 教師なしのブラックボックスモデルは科学的発見の原動力となるが、解釈は困難である。
重要なことに、発見はモデル出力を理解することに集中している。
教師あり学習における説明可能性は通常、ターゲットを予測するために入力特徴がどのように使われているかを明らかにするが、教師なし学習は学習された潜在空間の構造に入力特徴を関連付けるべきである。
教師なし学習における教師なしモデル説明可能性の適応は、単一サンプルまたはデータセット全体の概要説明を提供する。
しかし、類似したサンプルを互いに関連付けるような自動的な戦略がなければ、説明はきめ細やかすぎるか、還元的すぎるかのどちらかで意味がある。
これは写像関数を生成しない多様体学習法に特に関係し、埋め込みの相対的な空間構造にのみ従う。
本稿では, 局所的な埋め込み組織を, 入力特徴との関係から説明するための, ポストホックモデルに依存しない手法であるLocality-Aware Variable Associations (LAVA)を紹介する。
これを達成するために、LAVAは、原特徴間の相関の観点から記述された、潜伏空間の一連の局所性(近傍)として表現し、その後、潜伏空間全体にわたって再帰的な相関パターンを明らかにする。
MNISTと単細胞腎データセットのUMAP埋め込みに基づいて、LAVAは視覚的および生物学的に関連のある局所パターンを潜在空間の離れた領域間で共有し、関連性のある特徴関連を捉えていることを示す。
関連論文リスト
- Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [64.74977204942199]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Querying functional and structural niches on spatial transcriptomics data [7.240034062898855]
空間転写学は、空間的文脈における遺伝子発現のプロファイリングを可能にする。
空間ニッチは、生理的および病理学的過程において凝集的かつ反復的な単位として機能することが明らかにされている。
我々は、ニッチ・オブ・ニッチ(NOI)を与えられたSTサンプル間で類似したニッチを識別するニッチ・クエリータスクを定義した。
我々は、この課題を解決するための特殊な方法であるQueSTを開発した。
論文 参考訳(メタデータ) (2024-10-14T16:01:27Z) - Latent Causal Probing: A Formal Perspective on Probing with Causal Models of Data [3.376269351435396]
構造因果モデル(SCM)を用いた探索の形式的視点を開発する。
我々は,合成グリッドワールドナビゲーションタスクの文脈において,最近のLMの研究を拡張した。
我々の手法は、LMがテキストの根底にある潜在概念を誘発する能力を示す、堅牢な実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-07-18T17:59:27Z) - Towards Statistically Significant Taxonomy Aware Co-location Pattern Detection [4.095979270829907]
目的は、統計的に重要な特徴タイプや両親のサブセットを見つけることである。
この問題は、分類学によって生成される候補コロケーションパターンの指数的な数によって、計算的に困難である。
本稿では,コロケーションパターンの統計的意義を取り入れ,評価する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-06-29T04:48:39Z) - Discovering Class-Specific GAN Controls for Semantic Image Synthesis [73.91655061467988]
本稿では,事前訓練されたSISモデルの潜在空間において,空間的に不整合なクラス固有方向を求める新しい手法を提案する。
提案手法によって検出される潜在方向は,セマンティッククラスの局所的な外観を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2022-12-02T21:39:26Z) - When are Post-hoc Conceptual Explanations Identifiable? [18.85180188353977]
人間の概念ラベルが利用できない場合、概念発見手法は解釈可能な概念のための訓練された埋め込み空間を探索する。
我々は、概念発見は特定可能であり、多くの既知の概念を確実に回収し、説明の信頼性を保証するべきであると論じている。
本結果は,人間ラベルのない信頼性の高い概念発見を保証できる厳密な条件を強調した。
論文 参考訳(メタデータ) (2022-06-28T10:21:17Z) - OR-Net: Pointwise Relational Inference for Data Completion under Partial
Observation [51.083573770706636]
この作業はリレーショナル推論を使って不完全なデータを埋めます。
本稿では,2つの点での相対性理論をモデル化するために,全関係ネットワーク (or-net) を提案する。
論文 参考訳(メタデータ) (2021-05-02T06:05:54Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。