論文の概要: Hyperparameter-free and Explainable Whole Graph Embedding
- arxiv url: http://arxiv.org/abs/2108.02113v1
- Date: Wed, 4 Aug 2021 15:30:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:08:30.892976
- Title: Hyperparameter-free and Explainable Whole Graph Embedding
- Title(参考訳): ハイパーパラメータフリーで説明可能な全グラフ埋め込み
- Authors: Hao Wang, Yue Deng, Linyuan L\"u, Guanrong Chen
- Abstract要約: グラフ表現学習は、各ノードまたはグラフ全体の低次元表現ベクトルを学習しようとする。
本稿では,DHC(Degree, H-index, Coreness)定理とシャノンエントロピー(E)を組み合わせた新しいグラフ埋め込み法を提案する。
提案手法は低次元グラフの可視化において優れた性能を有する。
- 参考スコア(独自算出の注目度): 16.03671347701557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world complex systems can be described as graphs. For a large-scale
graph with low sparsity, a node's adjacency vector is a long and sparse
representation, limiting the practical utilization of existing machine learning
methods on nodal features. In practice, graph embedding (graph representation
learning) attempts to learn a lower-dimensional representation vector for each
node or the whole graph while maintaining the most basic information of graph.
Since various machine learning methods can efficiently process
lower-dimensional vectors, graph embedding has recently attracted a lot of
attention. However, most node embedding or whole graph embedding methods suffer
from the problem of having more sophisticated methodology, hyperparameter
optimization, and low explainability. This paper proposes a
hyperparameter-free, extensible, and explainable whole graph embedding method,
combining the DHC (Degree, H-index and Coreness) theorem and Shannon Entropy
(E), abbreviated as DHC-E. The new whole graph embedding scheme can obtain a
trade-off between the simplicity and the quality under some supervised
classification learning tasks, using molecular, social, and brain networks. In
addition, the proposed approach has a good performance in lower-dimensional
graph visualization. The new methodology is overall simple,
hyperparameter-free, extensible, and explainable for whole graph embedding with
promising potential for exploring graph classification, prediction, and
lower-dimensional graph visualization.
- Abstract(参考訳): 多くの実世界の複雑系はグラフとして記述できる。
スパーシティの低い大規模グラフの場合、ノードの隣接ベクトルは長くスパースな表現であり、nodal特徴における既存の機械学習手法の実用化を制限している。
実際、グラフ埋め込み(グラフ表現学習)は、グラフの最も基本的な情報を保持しながら、各ノードまたはグラフ全体の低次元表現ベクトルを学習しようとする。
様々な機械学習手法が低次元ベクトルを効率的に処理できるため、グラフ埋め込みは近年多くの注目を集めている。
しかし、ほとんどのノード埋め込みやグラフ埋め込みメソッドは、より洗練された方法論、ハイパーパラメータ最適化、説明可能性の低下といった問題に苦しんでいる。
本稿では、DHC(Degree, H-index, Coreness)定理とShannon Entropy(E)を組み合わせ、超パラメータフリーで拡張可能で説明可能な全グラフ埋め込み法を提案する。
新しい全体グラフ埋め込みスキームは、分子ネットワーク、社会ネットワーク、脳ネットワークを用いて、教師付き分類学習タスクの下での単純さと品質のトレードオフを得ることができる。
さらに,提案手法は低次元グラフ可視化において優れた性能を示す。
この新しい手法は、グラフの分類、予測、低次元グラフの可視化を探求する有望な可能性を持つグラフの埋め込みに対して、全体的に単純で、ハイパーパラメータフリーで、拡張可能で、説明可能である。
関連論文リスト
- The Graph Lottery Ticket Hypothesis: Finding Sparse, Informative Graph
Structure [18.00833762891405]
Graph Lottery Ticket (GLT)仮説: グラフごとに非常に疎いバックボーンが存在する。
本研究は,グラフ学習アルゴリズムの性能に直接影響を及ぼす関心の指標を8つ研究する。
任意のグラフでこれらのGLTを見つけるための単純で効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T00:24:44Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - A Unified Framework for Optimization-Based Graph Coarsening [5.720402020129441]
大きなグラフが与えられたとき、グラフ粗化は、もともと与えられたグラフの特性を保ちながら、より小さく抽出可能なグラフを学習することを目的としている。
提案するフレームワークは,グラフ学習と次元減少の一体化にある。
学習された粗大化グラフは、元のグラフと類似した$epsin(0,1)$であることが確立されている。
論文 参考訳(メタデータ) (2022-10-02T06:31:42Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - GraphHD: Efficient graph classification using hyperdimensional computing [58.720142291102135]
本稿では,HDCを用いたグラフ分類のベースライン手法を提案する。
実世界のグラフ分類問題におけるGraphHDの評価を行った。
その結果,最新のグラフニューラルネットワーク (GNN) と比較すると,提案手法の精度は同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-16T17:32:58Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z) - Learning Product Graphs Underlying Smooth Graph Signals [15.023662220197242]
本稿では,製品グラフの形式で与えられるデータから構造化グラフを学習する方法を考案する。
この目的のために、まずグラフ学習問題は線形プログラムとして表され、これは(平均的に)最先端のグラフ学習アルゴリズムより優れている。
論文 参考訳(メタデータ) (2020-02-26T03:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。