論文の概要: Graph Coarsening with Neural Networks
- arxiv url: http://arxiv.org/abs/2102.01350v1
- Date: Tue, 2 Feb 2021 06:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 02:45:47.659561
- Title: Graph Coarsening with Neural Networks
- Title(参考訳): ニューラルネットワークによるグラフ粗粒化
- Authors: Chen Cai, Dingkang Wang, Yusu Wang
- Abstract要約: 本稿では、粗いアルゴリズムの品質を測定するためのフレームワークを提案し、目標に応じて、粗いグラフ上のLaplace演算子を慎重に選択する必要があることを示す。
粗いグラフに対する現在のエッジウェイト選択が準最適である可能性が示唆され、グラフニューラルネットワークを用いて重み付けマップをパラメータ化し、教師なし方法で粗い品質を改善するよう訓練する。
- 参考スコア(独自算出の注目度): 8.407217618651536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large-scale graphs become increasingly more prevalent, it poses
significant computational challenges to process, extract and analyze large
graph data. Graph coarsening is one popular technique to reduce the size of a
graph while maintaining essential properties. Despite rich graph coarsening
literature, there is only limited exploration of data-driven methods in the
field. In this work, we leverage the recent progress of deep learning on graphs
for graph coarsening. We first propose a framework for measuring the quality of
coarsening algorithm and show that depending on the goal, we need to carefully
choose the Laplace operator on the coarse graph and associated projection/lift
operators. Motivated by the observation that the current choice of edge weight
for the coarse graph may be sub-optimal, we parametrize the weight assignment
map with graph neural networks and train it to improve the coarsening quality
in an unsupervised way. Through extensive experiments on both synthetic and
real networks, we demonstrate that our method significantly improves common
graph coarsening methods under various metrics, reduction ratios, graph sizes,
and graph types. It generalizes to graphs of larger size ($25\times$ of
training graphs), is adaptive to different losses (differentiable and
non-differentiable), and scales to much larger graphs than previous work.
- Abstract(参考訳): 大規模グラフがますます普及するにつれて、大規模グラフデータの処理、抽出、分析に重要な計算上の課題が生じる。
グラフ粗大化は、重要な特性を維持しながらグラフのサイズを減らすための一般的なテクニックの1つです。
リッチなグラフ粗い文献にもかかわらず、この分野におけるデータ駆動メソッドの探索は限られている。
本研究では,グラフ粗化のためのグラフの深層学習の最近の進歩を活用する。
我々はまず,粗いアルゴリズムの品質を測定するためのフレームワークを提案し,目標に応じて粗いグラフ上のLaplace演算子と関連するプロジェクション/リフト演算子を慎重に選択する必要があることを示した。
粗いグラフに対する現在のエッジウェイト選択が準最適である可能性が示唆され、グラフニューラルネットワークを用いて重み付けマップをパラメータ化し、教師なし方法で粗い品質を改善するよう訓練する。
本手法は, 合成ネットワークと実ネットワークの両方における広範な実験により, 還元率, グラフサイズ, グラフタイプなど, 一般的なグラフ粗さ化手法を大幅に改善できることを実証した。
これは、より大きなサイズのグラフ(25\times$ of training graphs)に一般化し、異なる損失(微分可能かつ非微分可能)に適応し、より大きなグラフにスケールする。
関連論文リスト
- A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - SynGraphy: Succinct Summarisation of Large Networks via Small Synthetic
Representative Graphs [4.550112751061436]
大規模ネットワークデータセットの構造を視覚的に要約するSynGraphyについて述べる。
入力グラフに類似した構造特性を持つために生成されたより小さなグラフを描画する。
論文 参考訳(メタデータ) (2023-02-15T16:00:15Z) - A Unified Framework for Optimization-Based Graph Coarsening [5.720402020129441]
大きなグラフが与えられたとき、グラフ粗化は、もともと与えられたグラフの特性を保ちながら、より小さく抽出可能なグラフを学習することを目的としている。
提案するフレームワークは,グラフ学習と次元減少の一体化にある。
学習された粗大化グラフは、元のグラフと類似した$epsin(0,1)$であることが確立されている。
論文 参考訳(メタデータ) (2022-10-02T06:31:42Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Edge but not Least: Cross-View Graph Pooling [76.71497833616024]
本稿では,重要なグラフ構造情報を活用するために,クロスビューグラフプーリング(Co-Pooling)手法を提案する。
クロスビュー相互作用、エッジビュープーリング、ノードビュープーリングにより、相互にシームレスに強化され、より情報的なグラフレベルの表現が学習される。
論文 参考訳(メタデータ) (2021-09-24T08:01:23Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Graph Sanitation with Application to Node Classification [41.311131936203715]
質問に答えるために,グラフ衛生問題を導入する。
マイニングモデルの入力の一部として、より良いグラフを学習することで、さまざまな環境でグラフマイニングの恩恵が期待できる。
特に、既存の堅牢なグラフニューラルネットワーク手法よりも25%パフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-05-19T20:22:15Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Understanding Coarsening for Embedding Large-Scale Graphs [3.6739949215165164]
機械学習(ML)アルゴリズムによるグラフの適切な解析は、研究や産業の多くの分野において、より深い洞察をもたらす可能性がある。
グラフデータの不規則構造は、グラフ上でMLタスクを実行するための障害を構成する。
本研究では, 粗大化品質が埋込み性能に及ぼす影響を, 速度と精度の両方で解析する。
論文 参考訳(メタデータ) (2020-09-10T15:06:33Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。