論文の概要: On Evaluation Metrics for Graph Generative Models
- arxiv url: http://arxiv.org/abs/2201.09871v1
- Date: Mon, 24 Jan 2022 18:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:17:42.569242
- Title: On Evaluation Metrics for Graph Generative Models
- Title(参考訳): グラフ生成モデルの評価指標について
- Authors: Rylee Thompson, Boris Knyazev, Elahe Ghalebi, Jungtaek Kim, Graham W.
Taylor
- Abstract要約: 既存のグラフ生成モデル(GGM)とニューラル・ネットワーク・ベースのメトリクスを用いてGGMを評価する。
学習せずに有意なグラフ表現を抽出するために,特定のグラフニューラルネットワーク(GNN)の力に触発され,未学習のランダムGNNによって抽出された特徴に基づくいくつかの指標を導入する。
- 参考スコア(独自算出の注目度): 17.594098458581694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In image generation, generative models can be evaluated naturally by visually
inspecting model outputs. However, this is not always the case for graph
generative models (GGMs), making their evaluation challenging. Currently, the
standard process for evaluating GGMs suffers from three critical limitations:
i) it does not produce a single score which makes model selection challenging,
ii) in many cases it fails to consider underlying edge and node features, and
iii) it is prohibitively slow to perform. In this work, we mitigate these
issues by searching for scalar, domain-agnostic, and scalable metrics for
evaluating and ranking GGMs. To this end, we study existing GGM metrics and
neural-network-based metrics emerging from generative models of images that use
embeddings extracted from a task-specific network. Motivated by the power of
certain Graph Neural Networks (GNNs) to extract meaningful graph
representations without any training, we introduce several metrics based on the
features extracted by an untrained random GNN. We design experiments to
thoroughly test metrics on their ability to measure the diversity and fidelity
of generated graphs, as well as their sample and computational efficiency.
Depending on the quantity of samples, we recommend one of two random-GNN-based
metrics that we show to be more expressive than pre-existing metrics. While we
focus on applying these metrics to GGM evaluation, in practice this enables the
ability to easily compute the dissimilarity between any two sets of graphs
regardless of domain. Our code is released at:
https://github.com/uoguelph-mlrg/GGM-metrics.
- Abstract(参考訳): 画像生成では、モデル出力を視覚的に検査することで生成モデルを自然に評価することができる。
しかし、これは必ずしもグラフ生成モデル(ggm)の場合ではないため、その評価は困難である。
現在、GGMの評価の標準プロセスには3つの限界がある。
一 モデル選択を困難にさせる単一のスコアを生成しないこと。
二 多くの場合、基盤となるエッジ及びノードの機能を考慮していないこと。
三 強制的に行うのが遅いこと。
本研究では,ggmの評価とランク付けのために,スカラ,ドメイン非依存,スケーラブルなメトリクスを検索することで,これらの問題を緩和する。
そこで本研究では,タスク固有ネットワークから抽出した埋め込みを用いた画像の生成モデルから生ずる既存のGGMメトリクスとニューラルネットワークベースのメトリクスについて検討する。
学習せずに有意なグラフ表現を抽出するために,特定のグラフニューラルネットワーク(GNN)の力に触発され,未学習のランダムGNNによって抽出された特徴に基づくいくつかの指標を導入する。
生成したグラフの多様性と忠実度、サンプルおよび計算効率を測定する能力について、メトリクスを徹底的にテストする実験を設計する。
サンプルの量によっては、既存の指標よりも表現力が高いことを示す2つのランダムGNNベースの指標の1つを推奨する。
我々はこれらの指標をGGM評価に適用することに重点を置いているが、実際にはドメインに関係なく、任意の2つのグラフ間の相似性を容易に計算することができる。
私たちのコードは、https://github.com/uoguelph-mlrg/ggm-metricsでリリースされています。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - GRAPES: Learning to Sample Graphs for Scalable Graph Neural Networks [2.4175455407547015]
グラフニューラルネットワークは、隣人からの情報を集約することでノードを表現することを学ぶ。
いくつかの既存手法では、ノードの小さなサブセットをサンプリングし、GNNをもっと大きなグラフにスケールすることで、この問題に対処している。
本稿では,GNNのトレーニングに不可欠なノードの集合を識別する適応サンプリング手法であるGRAPESを紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:08:47Z) - GRAN is superior to GraphRNN: node orderings, kernel- and graph
embeddings-based metrics for graph generators [0.6816499294108261]
本研究では,グラフ不変量の分布に関するカーネルベースのメトリクスと,グラフ埋め込み空間における多様体ベースのメトリクスとカーネルベースのメトリクスについて検討する。
グラフの2つのよく知られた生成モデルであるGraphRNNとGRANを比較し、ノード順序の影響を明らかにする。
論文 参考訳(メタデータ) (2023-07-13T12:07:39Z) - SizeShiftReg: a Regularization Method for Improving Size-Generalization
in Graph Neural Networks [5.008597638379227]
グラフニューラルネットワーク(GNN)は,グラフ分類のデファクトモデルとなっている。
テストデータへのアクセスを必要とせずに,任意のGNNに適用可能な正規化戦略を提案する。
我々の正規化は、粗い手法を用いてトレーニンググラフのサイズの変化をシミュレートする考え方に基づいている。
論文 参考訳(メタデータ) (2022-07-16T09:50:45Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Evaluating Graph Generative Models with Contrastively Learned Features [9.603362400275868]
グラフサブストラクチャーネットワーク(GSN)は,グラフデータセット間の距離を区別する上で優れていることを示す。
我々は、ランダムなGNNではなく、対照的に訓練されたGNNの表現を使うことを提案し、その結果、より信頼性の高い評価指標が得られたことを示す。
論文 参考訳(メタデータ) (2022-06-13T15:14:41Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。