論文の概要: Graph Ordering: Towards the Optimal by Learning
- arxiv url: http://arxiv.org/abs/2001.06631v1
- Date: Sat, 18 Jan 2020 09:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 05:03:36.334972
- Title: Graph Ordering: Towards the Optimal by Learning
- Title(参考訳): グラフ順序付け:学習の最適化に向けて
- Authors: Kangfei Zhao, Yu Rong, Jeffrey Xu Yu, Junzhou Huang, Hao Zhang
- Abstract要約: グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
- 参考スコア(独自算出の注目度): 69.72656588714155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning has achieved a remarkable success in many
graph-based applications, such as node classification, link prediction, and
community detection. These models are usually designed to preserve the vertex
information at different granularity and reduce the problems in discrete space
to some machine learning tasks in continuous space. However, regardless of the
fruitful progress, for some kind of graph applications, such as graph
compression and edge partition, it is very hard to reduce them to some graph
representation learning tasks. Moreover, these problems are closely related to
reformulating a global layout for a specific graph, which is an important
NP-hard combinatorial optimization problem: graph ordering. In this paper, we
propose to attack the graph ordering problem behind such applications by a
novel learning approach. Distinguished from greedy algorithms based on
predefined heuristics, we propose a neural network model: Deep Order Network
(DON) to capture the hidden locality structure from partial vertex order sets.
Supervised by sampled partial order, DON has the ability to infer unseen
combinations. Furthermore, to alleviate the combinatorial explosion in the
training space of DON and make the efficient partial vertex order sampling , we
employ a reinforcement learning model: the Policy Network, to adjust the
partial order sampling probabilities during the training phase of DON
automatically. To this end, the Policy Network can improve the training
efficiency and guide DON to evolve towards a more effective model
automatically. Comprehensive experiments on both synthetic and real data
validate that DON-RL outperforms the current state-of-the-art heuristic
algorithm consistently. Two case studies on graph compression and edge
partitioning demonstrate the potential power of DON-RL in real applications.
- Abstract(参考訳): グラフ表現学習は、ノード分類、リンク予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
これらのモデルは、通常、頂点情報を異なる粒度で保存し、離散空間の問題を連続空間における機械学習タスクに還元するように設計されている。
しかし、グラフ圧縮やエッジパーティションのようなグラフアプリケーションでは、実りある進歩にかかわらず、グラフ表現学習タスクに還元するのは非常に困難である。
さらに、これらの問題は、グラフ順序付けという重要なNPハード組合せ最適化問題である、特定のグラフのグローバルレイアウトの再構成と密接に関連している。
本稿では,このような応用の背後にあるグラフ順序問題に対して,新しい学習手法を用いて攻撃する手法を提案する。
事前定義されたヒューリスティックスに基づく欲望アルゴリズムと区別して,部分頂点順序集合から隠れた局所構造をキャプチャするディープ・オーダー・ネットワーク(don)を提案する。
サンプル部分順序によって監督され、DONは目に見えない組み合わせを推測する能力を持つ。
さらに,donのトレーニング空間における組合せ爆発を緩和し,効率的な部分頂点順序サンプリングを実現するために,強化学習モデルであるポリシーネットワークを用いて,donのトレーニングフェーズにおける部分順序サンプリング確率を自動的に調整する。
この目的のために、Policy Networkはトレーニング効率を改善し、DONをより効果的なモデルに自動的に進化させるよう誘導することができる。
合成データと実データの両方に関する包括的な実験は、DON-RLが現在の最先端ヒューリスティックアルゴリズムを一貫して上回っていることを示す。
グラフ圧縮とエッジ分割に関する2つのケーススタディは、実応用におけるDON-RLの可能性を示している。
関連論文リスト
- Do We Really Need Graph Convolution During Training? Light Post-Training Graph-ODE for Efficient Recommendation [34.93725892725111]
トレーニングレコメンデータシステム(RecSys)におけるグラフ畳み込みネットワーク(GCNs)は、絶え間なく懸念されてきた。
本稿では,学習段階におけるグラフ畳み込みの必要性を批判的に考察する。
光後学習グラフ正規分方程式(LightGODE)という革新的な方法を導入する。
論文 参考訳(メタデータ) (2024-07-26T17:59:32Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - GIST: Distributed Training for Large-Scale Graph Convolutional Networks [18.964079367668262]
GISTはハイブリッド層とグラフサンプリング手法であり、グローバルモデルをいくつかの小さなサブGCNに分割する。
この分散フレームワークはモデルのパフォーマンスを改善し、ウォールクロックのトレーニング時間を大幅に短縮します。
GISTは、グラフ機械学習とディープラーニングの既存のギャップを埋めることを目的として、大規模なGCN実験を可能にすることを目指している。
論文 参考訳(メタデータ) (2021-02-20T19:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。