論文の概要: RESTORE: Graph Embedding Assessment Through Reconstruction
- arxiv url: http://arxiv.org/abs/2308.14659v2
- Date: Tue, 5 Sep 2023 15:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 02:49:26.402234
- Title: RESTORE: Graph Embedding Assessment Through Reconstruction
- Title(参考訳): RESTORE: 再構築によるグラフ埋め込みアセスメント
- Authors: Hong Yung Yip, Chidaksh Ravuru, Neelabha Banerjee, Shashwat Jha, Amit
Sheth, Aman Chadha, Amitava Das
- Abstract要約: グラフ埋め込み (GE) は大きな牽引力を得ている。
トポロジ的構造と意味情報の観点からの原グラフ特性の本質的な評価が欠如している。
グラフ再構成による固有GE評価のためのフレームワークRESTOREを提案する。
- 参考スコア(独自算出の注目度): 5.737604103526247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Following the success of Word2Vec embeddings, graph embeddings (GEs) have
gained substantial traction. GEs are commonly generated and evaluated
extrinsically on downstream applications, but intrinsic evaluations of the
original graph properties in terms of topological structure and semantic
information have been lacking. Understanding these will help identify the
deficiency of the various families of GE methods when vectorizing graphs in
terms of preserving the relevant knowledge or learning incorrect knowledge. To
address this, we propose RESTORE, a framework for intrinsic GEs assessment
through graph reconstruction. We show that reconstructing the original graph
from the underlying GEs yields insights into the relative amount of information
preserved in a given vector form. We first introduce the graph reconstruction
task. We generate GEs from three GE families based on factorization methods,
random walks, and deep learning (with representative algorithms from each
family) on the CommonSense Knowledge Graph (CSKG). We analyze their
effectiveness in preserving the (a) topological structure of node-level graph
reconstruction with an increasing number of hops and (b) semantic information
on various word semantic and analogy tests. Our evaluations show deep
learning-based GE algorithm (SDNE) is overall better at preserving (a) with a
mean average precision (mAP) of 0.54 and 0.35 for 2 and 3-hop reconstruction
respectively, while the factorization-based algorithm (HOPE) is better at
encapsulating (b) with an average Euclidean distance of 0.14, 0.17, and 0.11
for 1, 2, and 3-hop reconstruction respectively. The modest performance of
these GEs leaves room for further research avenues on better graph
representation learning.
- Abstract(参考訳): Word2Vecの埋め込みの成功に続いて、グラフ埋め込み(GE)が大きな注目を集めている。
geは下流のアプリケーションで一般的に生成され、評価されるが、トポロジー構造と意味情報の観点からの元のグラフ特性の固有の評価は不足している。
これらの理解は、関連する知識の保存や誤った知識の学習という観点でグラフをベクトル化するときにge法の様々なファミリーの不足を特定するのに役立つ。
これを解決するために,グラフ再構成による固有GE評価フレームワークRESTOREを提案する。
基礎となるgesから元のグラフを再構成すると、与えられたベクトル形式に保存された相対的な情報量についての洞察が得られる。
最初にグラフ再構築タスクを紹介します。
我々は,CommonSense Knowledge Graph (CSKG) を用いて,因子化手法,ランダムウォーク,深層学習(各家族の代表的アルゴリズムを含む)に基づいて,GEを3つのGEファミリーから生成する。
保存における有効性の分析
(a)ホップ数の増加によるノードレベルグラフ再構成の位相構造
b)様々な単語の意味と類似性テストに関する意味情報。
深層学習に基づくgeアルゴリズム(sdne)は全体として保存性が優れていることを示す。
(a)平均平均精度(map)は0.54と0.35で2と3hopで、因子分解に基づくアルゴリズム(hope)はカプセル化が優れている。
(b)平均ユークリッド距離は1, 2, 3ホップのそれぞれ0.14, 0.17, 0.11である。
これらのgesの控えめな性能は、より良いグラフ表現学習に関するさらなる研究の道のりを残している。
関連論文リスト
- GaGSL: Global-augmented Graph Structure Learning via Graph Information Bottleneck [5.943641527857957]
我々は,TextitGlobal-augmented Graph Structure Learning (GaGSL) という新しい手法を提案する。
GaGSLの背景にある重要な考え方は、ノード分類タスクのためのコンパクトで情報的なグラフ構造を学ぶことである。
さまざまなデータセットにわたる包括的な評価は、最先端の手法と比較して、GaGSLの優れた性能と堅牢性を示している。
論文 参考訳(メタデータ) (2024-11-07T01:23:48Z) - Rethinking Reconstruction-based Graph-Level Anomaly Detection: Limitations and a Simple Remedy [32.624939333311374]
Graph-AEsの注目すべき応用は、グラフレベル異常検出(GLAD)である。
再建フリップと呼ばれる非自明な反例を報告する。
MUSE という名前の新規でシンプルなGLAD法を提案する。
論文 参考訳(メタデータ) (2024-10-27T07:41:51Z) - Community-Centric Graph Unlearning [10.906555492206959]
我々は、新しいグラフ構造マッピング・アンラーニング・パラダイム(GSMU)と、それに基づく新しい手法CGE(Community-centric Graph Eraser)を提案する。
CGEは、コミュニティのサブグラフをノードにマッピングすることで、少ないマップ付きグラフ内でノードレベルの未学習操作の再構築を可能にする。
論文 参考訳(メタデータ) (2024-08-19T05:37:35Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - Preserving Node Distinctness in Graph Autoencoders via Similarity Distillation [9.395697548237333]
グラフオートエンコーダ(GAE)は、平均二乗誤差(MSE)のような距離ベースの基準に依存して入力グラフを再構築する。
単一の再構築基準にのみ依存すると 再建されたグラフの 特徴が失われる可能性がある
我々は,再構成されたグラフにおいて,必要な相違性を維持するための簡易かつ効果的な戦略を開発した。
論文 参考訳(メタデータ) (2024-06-25T12:54:35Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - MATA*: Combining Learnable Node Matching with A* Algorithm for
Approximate Graph Edit Distance Computation [12.437507185260577]
正確なグラフ編集距離(GED)計算はNP完全であることが知られている。
グラフニューラルネットワーク(GNN)とA*アルゴリズムに基づく近似GED計算のためのデータ駆動型ハイブリッドアプローチMATA*を提案する。
論文 参考訳(メタデータ) (2023-11-04T09:33:08Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。