論文の概要: Neural Stochastic Block Model & Scalable Community-Based Graph Learning
- arxiv url: http://arxiv.org/abs/2005.07855v1
- Date: Sat, 16 May 2020 03:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:07:35.555351
- Title: Neural Stochastic Block Model & Scalable Community-Based Graph Learning
- Title(参考訳): ニューラル確率ブロックモデルとスケーラブルなコミュニティベースグラフ学習
- Authors: Zheng Chen, Xinli Yu, Yuan Ling, Xiaohua Hu
- Abstract要約: 本稿では,グラフ学習のためのスケーラブルなコミュニティベースニューラルネットワークを提案する。
このフレームワークは,コミュニティ検出とリンク予測のタスクを通じて,グラフトポロジを学習する。
グラフアライメントと異常相関検出の2つの応用について検討する。
- 参考スコア(独自算出の注目度): 8.00785050036369
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes a novel scalable community-based neural framework for
graph learning. The framework learns the graph topology through the task of
community detection and link prediction by optimizing with our proposed joint
SBM loss function, which results from a non-trivial adaptation of the
likelihood function of the classic Stochastic Block Model (SBM). Compared with
SBM, our framework is flexible, naturally allows soft labels and digestion of
complex node attributes. The main goal is efficient valuation of complex graph
data, therefore our design carefully aims at accommodating large data, and
ensures there is a single forward pass for efficient evaluation. For large
graph, it remains an open problem of how to efficiently leverage its underlying
structure for various graph learning tasks. Previously it can be heavy work.
With our community-based framework, this becomes less difficult and allows the
task models to basically plug-in-and-play and perform joint training. We
currently look into two particular applications, the graph alignment and the
anomalous correlation detection, and discuss how to make use of our framework
to tackle both problems. Extensive experiments are conducted to demonstrate the
effectiveness of our approach. We also contributed tweaks of classic techniques
which we find helpful for performance and scalability. For example, 1) the
GAT+, an improved design of GAT (Graph Attention Network), the scaled-cosine
similarity, and a unified implementation of the convolution/attention based and
the random-walk based neural graph models.
- Abstract(参考訳): 本稿では,グラフ学習のためのスケーラブルなコミュニティベースニューラルネットワークを提案する。
本手法は,従来の確率ブロックモデル(sbm)の確率関数の非自明な適応により,提案するsbm損失関数を最適化することにより,コミュニティ検出とリンク予測のタスクを通してグラフトポロジを学習する。
SBMと比較して、我々のフレームワークは柔軟で、ソフトラベルと複雑なノード属性の消化が自然に可能である。
複雑なグラフデータの効率的な評価が主な目的であるため、当社の設計では、大規模データへの適応を慎重に目標としており、効率的な評価のために単一のフォワードパスがあることを保証しています。
大規模グラフでは、その基盤となる構造を様々なグラフ学習タスクに効率的に活用する方法に関して、未解決の問題が残っている。
以前は重労働であった。
コミュニティベースのフレームワークでは、これは難しくなり、タスクモデルを基本的にプラグイン&プレイし、共同トレーニングを実行できます。
現在,グラフアライメントと異常相関検出という2つの応用を検討中で,両問題に対処するためのフレームワークの活用方法について検討している。
本手法の有効性を示すために広範な実験を行った。
私たちはまた、パフォーマンスとスケーラビリティに役立つ古典的なテクニックの微調整にも貢献しました。
例えば、1)GAT+、GAT(Graph Attention Network)の改良された設計、スケールしたコサインの類似性、および畳み込み/アテンションベースとランダムウォークベースのニューラルグラフモデルの統一実装などである。
関連論文リスト
- Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - Deep Reinforcement Learning of Graph Matching [63.469961545293756]
ノードとペアの制約下でのグラフマッチング(GM)は、最適化からコンピュータビジョンまでの領域におけるビルディングブロックである。
GMのための強化学習ソルバを提案する。
rgmはペアワイズグラフ間のノード対応を求める。
本手法は,フロントエンドの特徴抽出と親和性関数学習に焦点をあてるという意味において,従来のディープグラフマッチングモデルと異なる。
論文 参考訳(メタデータ) (2020-12-16T13:48:48Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。