論文の概要: DINE: Dimensional Interpretability of Node Embeddings
- arxiv url: http://arxiv.org/abs/2310.01162v1
- Date: Mon, 2 Oct 2023 12:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 21:51:43.404738
- Title: DINE: Dimensional Interpretability of Node Embeddings
- Title(参考訳): DINE: ノード埋め込みの次元的解釈可能性
- Authors: Simone Piaggesi, Megha Khosla, Andr\'e Panisson, Avishek Anand
- Abstract要約: ノード埋め込みのようなグラフ表現学習手法は、ノードを潜在ベクトル空間にマッピングするための強力なアプローチである。
埋め込みベクトルのグローバル解釈可能性を測定する新しい指標を開発した。
次に、タスク性能を犠牲にすることなく、より解釈しやすくすることで、既存のノード埋め込みを再現できる新しいアプローチであるDINEを紹介します。
- 参考スコア(独自算出の注目度): 3.3040172566302206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphs are ubiquitous due to their flexibility in representing social and
technological systems as networks of interacting elements. Graph representation
learning methods, such as node embeddings, are powerful approaches to map nodes
into a latent vector space, allowing their use for various graph tasks. Despite
their success, only few studies have focused on explaining node embeddings
locally. Moreover, global explanations of node embeddings remain unexplored,
limiting interpretability and debugging potentials. We address this gap by
developing human-understandable explanations for dimensions in node embeddings.
Towards that, we first develop new metrics that measure the global
interpretability of embedding vectors based on the marginal contribution of the
embedding dimensions to predicting graph structure. We say that an embedding
dimension is more interpretable if it can faithfully map to an understandable
sub-structure in the input graph - like community structure. Having observed
that standard node embeddings have low interpretability, we then introduce DINE
(Dimension-based Interpretable Node Embedding), a novel approach that can
retrofit existing node embeddings by making them more interpretable without
sacrificing their task performance. We conduct extensive experiments on
synthetic and real-world graphs and show that we can simultaneously learn
highly interpretable node embeddings with effective performance in link
prediction.
- Abstract(参考訳): グラフは、社会的および技術的システムを相互作用する要素のネットワークとして表現する柔軟性のため、ユビキタスである。
ノード埋め込みのようなグラフ表現学習手法は、ノードを潜在ベクトル空間にマッピングするための強力なアプローチであり、様々なグラフタスクに使用できる。
その成功にもかかわらず、ノードの埋め込みを局所的に説明する研究はほとんどない。
さらに、ノード埋め込みのグローバルな説明は未検討のままであり、解釈可能性とデバッグポテンシャルは制限されている。
ノード埋め込みにおける次元の人間の理解可能な説明を開発することで、このギャップに対処する。
そこで我々はまず,グラフ構造予測への埋め込み次元の限界寄与に基づいて,埋め込みベクトルのグローバル解釈可能性を測定する新しい指標を開発した。
埋め込み次元は、コミュニティ構造のような入力グラフの理解可能な部分構造に忠実にマッピングできるなら、より解釈可能であると言う。
DINE(Dimension-based Interpretable Node Embedding)は、従来のノードの埋め込みを、タスクのパフォーマンスを犠牲にすることなく、より解釈可能なものにすることで、改善可能なアプローチである。
合成および実世界のグラフに関する広範囲な実験を行い,リンク予測において,高い解釈可能なノード埋め込みを効果的に学習できることを示した。
関連論文リスト
- Disentangled and Self-Explainable Node Representation Learning [1.4002424249260854]
自己説明可能な埋め込みを教師なしで生成するフレームワークであるDiSeNEを紹介する。
本手法では,次元的に解釈可能な埋め込みを生成するために,不整合表現学習を用いる。
新規なデシラタを,新たな目的関数を駆動するアンタングルと解釈可能な埋め込みのために定式化した。
論文 参考訳(メタデータ) (2024-10-28T13:58:52Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Self-Supervised Node Representation Learning via Node-to-Neighbourhood
Alignment [10.879056662671802]
自己教師付きノード表現学習は、教師付きノードと競合する未ラベルグラフからノード表現を学ぶことを目的としている。
本研究では,ノードとその周辺領域の隠蔽表現を整列させることにより,単純なyet効率の自己教師付きノード表現学習を提案する。
我々は,グラフ構造化データセットの集合に対して,ノード分類性能が期待できるノード表現を,小規模から大規模に学習する。
論文 参考訳(メタデータ) (2023-02-09T13:21:18Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Finding MNEMON: Reviving Memories of Node Embeddings [39.206574462957136]
元のグラフのノード埋め込み行列にのみアクセスすることで、敵が適切な精度でエッジを復元できることが示される。
広範囲な実験を通してグラフ回復攻撃の有効性と適用性を示す。
論文 参考訳(メタデータ) (2022-04-14T13:44:26Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Spectral Embedding of Graph Networks [76.27138343125985]
ローカルノードの類似性と接続性、グローバル構造をトレードオフする教師なしグラフ埋め込みを導入する。
埋め込みは一般化されたグラフ Laplacian に基づいており、固有ベクトルは1つの表現においてネットワーク構造と近傍近傍の両方をコンパクトにキャプチャする。
論文 参考訳(メタデータ) (2020-09-30T04:59:10Z) - Integrating Network Embedding and Community Outlier Detection via
Multiclass Graph Description [15.679313861083239]
そこで本稿では,ノード埋め込みとアウトレーヤとコミュニティ検出を統合した非教師なしグラフ埋め込み手法(DMGD)を提案する。
DMGDにより検出された外れ値の数に関する理論的境界を示す。
我々の定式化は、外れ値、コミュニティ割り当て、ノード埋め込み関数の間の興味深いミニマックスゲームに起因する。
論文 参考訳(メタデータ) (2020-07-20T16:21:07Z) - Self-Supervised Graph Representation Learning via Global Context
Prediction [31.07584920486755]
本稿では,データ自体による自然監督を利用して,グラフ表現学習のための新たな自己教師型戦略を提案する。
グラフ内のノードのペアをランダムに選択し、よく設計されたニューラルネットをトレーニングし、一方のノードのコンテキスト位置を他方と相対的に予測する。
我々の仮説は、そのようなグラフ内コンテキストから得られた表現はグラフのグローバルなトポロジーを捉え、ノード間の類似性と区別を微妙に特徴づける、というものである。
論文 参考訳(メタデータ) (2020-03-03T15:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。