論文の概要: HOLE: Homological Observation of Latent Embeddings for Neural Network Interpretability
- arxiv url: http://arxiv.org/abs/2512.07988v2
- Date: Wed, 10 Dec 2025 02:59:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 13:10:24.473885
- Title: HOLE: Homological Observation of Latent Embeddings for Neural Network Interpretability
- Title(参考訳): HOLE:ニューラルネットワーク解釈のための潜伏埋め込みのホモロジー観察
- Authors: Sudhanva Manjunath Athreya, Paul Rosen,
- Abstract要約: HOLE(Homological Observation of Latent Embeddings)は、ニューラルネットワークの永続的ホモロジーを解析・解釈する手法である。
トポロジ的特徴をニューラルアクティベーションから抽出し、サンキー図、ヒートマップ、デンドログラム、ブロブグラフなどの可視化技術を用いて提示する。
我々は、様々な識別モデルを用いて標準データセット上でHOLEを評価し、表現品質、層間の解釈可能性、入力摂動やモデル圧縮に対する堅牢性に着目した。
- 参考スコア(独自算出の注目度): 3.1865582949300837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have achieved remarkable success across various domains, yet their learned representations and decision-making processes remain largely opaque and hard to interpret. This work introduces HOLE (Homological Observation of Latent Embeddings), a method for analyzing and interpreting deep neural networks through persistent homology. HOLE extracts topological features from neural activations and presents them using a suite of visualization techniques, including Sankey diagrams, heatmaps, dendrograms, and blob graphs. These tools facilitate the examination of representation structure and quality across layers. We evaluate HOLE on standard datasets using a range of discriminative models, focusing on representation quality, interpretability across layers, and robustness to input perturbations and model compression. The results indicate that topological analysis reveals patterns associated with class separation, feature disentanglement, and model robustness, providing a complementary perspective for understanding and improving deep learning systems.
- Abstract(参考訳): ディープラーニングモデルは、様々な領域で顕著な成功を収めてきたが、それらの学習された表現と意思決定プロセスは、ほとんど不透明で解釈が難しいままである。
この研究は、永続的ホモロジーを通してディープニューラルネットワークを分析し、解釈するHOLE(Homological Observation of Latent Embeddings)を紹介する。
HOLEは、ニューラルアクティベーションからトポロジ的特徴を抽出し、サンキー図、ヒートマップ、デンドログラム、ブロブグラフなどの可視化技術を用いて提示する。
これらのツールは、レイヤ間の表現構造と品質の検証を容易にする。
我々は、様々な識別モデルを用いて標準データセット上でHOLEを評価し、表現品質、層間の解釈可能性、入力摂動やモデル圧縮に対する堅牢性に着目した。
その結果、トポロジカル分析により、クラス分離、特徴のゆがみ、モデル堅牢性に関連するパターンが明らかとなり、ディープラーニングシステムを理解し改善するための補完的な視点が得られた。
関連論文リスト
- Cross-View Topology-Aware Graph Representation Learning [0.0]
本稿では,GNNからの構造的埋め込みと,永続的ホモロジーから派生した位相的埋め込みを統合した2視点コントラスト学習フレームワークGraphTCLを提案する。
TUやOGB分子グラフなどのベンチマークデータセットの実験は、GraphTCLが一貫して最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-12-01T19:00:58Z) - Enhancing Graph Representation Learning with Localized Topological Features [29.562627708301694]
永続ホモロジー理論に基づいてグラフのリッチ接続情報を抽出する原理的手法を提案する。
本手法は,グラフニューラルネットワークの表現学習を強化するためにトポロジ的特徴を利用する。
論文 参考訳(メタデータ) (2025-01-15T22:12:27Z) - TopER: Topological Embeddings in Graph Representation Learning [8.052380377159398]
トポロジカル進化速度 (TopER) は、トポロジカルデータ解析に基づく低次元埋め込み手法である。
TopERはグラフ部分構造の進化率を計算することによって、重要な位相的アプローチである永続化ホモロジーを単純化する。
我々のモデルは、分類、クラスタリング、可視化といったタスクにおいて、分子、生物学的、ソーシャルネットワークのデータセットにまたがる最先端の結果を達成したり、超えたりします。
論文 参考訳(メタデータ) (2024-10-02T17:31:33Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。