論文の概要: Smoothing Graphons for Modelling Exchangeable Relational Data
- arxiv url: http://arxiv.org/abs/2002.11159v1
- Date: Tue, 25 Feb 2020 20:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:51:23.178214
- Title: Smoothing Graphons for Modelling Exchangeable Relational Data
- Title(参考訳): 交換可能な関係データのモデリングのための平滑化グラフ
- Authors: Xuhui Fan, Yaqiong Li, Ling Chen, Bin Li, Scott A. Sisson
- Abstract要約: エム・スムースなグラフオンを形成するために,一括的に安定なグラフンにスムースな手順を導入する。
我々は,スムーズなグラフンは計算複雑性を増大させることなく,AUCとリンク予測の精度を大幅に向上させることができることを示した。
- 参考スコア(独自算出の注目度): 23.901179710723547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modelling exchangeable relational data can be described by \textit{graphon
theory}. Most Bayesian methods for modelling exchangeable relational data can
be attributed to this framework by exploiting different forms of graphons.
However, the graphons adopted by existing Bayesian methods are either
piecewise-constant functions, which are insufficiently flexible for accurate
modelling of the relational data, or are complicated continuous functions,
which incur heavy computational costs for inference. In this work, we introduce
a smoothing procedure to piecewise-constant graphons to form {\em smoothing
graphons}, which permit continuous intensity values for describing relations,
but without impractically increasing computational costs. In particular, we
focus on the Bayesian Stochastic Block Model (SBM) and demonstrate how to adapt
the piecewise-constant SBM graphon to the smoothed version. We initially
propose the Integrated Smoothing Graphon (ISG) which introduces one smoothing
parameter to the SBM graphon to generate continuous relational intensity
values. We then develop the Latent Feature Smoothing Graphon (LFSG), which
improves on the ISG by introducing auxiliary hidden labels to decompose the
calculation of the ISG intensity and enable efficient inference. Experimental
results on real-world data sets validate the advantages of applying smoothing
strategies to the Stochastic Block Model, demonstrating that smoothing graphons
can greatly improve AUC and precision for link prediction without increasing
computational complexity.
- Abstract(参考訳): 交換可能な関係データのモデリングは \textit{graphon theory} で記述できる。
交換可能な関係データのモデリングのためのベイズ的手法の多くは、異なる形式のグラフを利用することによってこのフレームワークに帰着することができる。
しかし、既存のベイズ法で採用されているグラフは、関係データの正確なモデリングには不十分に柔軟である分断連続関数か、あるいは複雑な連続関数であり、計算コストが重い。
本研究では,関係を記述するための連続的な強度値を許容し,計算コストを非実用的に増加させることなく,分断連続グラフを形作るための平滑化手法を提案する。
特に,ベイズ確率ブロックモデル (SBM) に着目し,SBMグラフをスムーズなバージョンにどのように適応させるかを示す。
まず,SBMグラフに1つの平滑化パラメータを導入し,連続的関係強度値を生成する統合平滑化グラフ (ISG) を提案する。
そこで我々は,ISG強度の計算を分解し,効率的な推論を可能にするために,補助的な隠れラベルを導入することでISGを改善するLatent Feature Smoothing Graphon (LFSG)を開発した。
実世界のデータセットにおける実験結果は、確率的ブロックモデルに平滑化戦略を適用する利点を検証し、平滑化グラフは計算の複雑さを増すことなく、aucとリンク予測の精度を大幅に改善できることを示した。
関連論文リスト
- Sparse Training of Discrete Diffusion Models for Graph Generation [50.691834214298]
グラフの生成モデルは、各ノードペアの相互作用を予測する必要があるため、スケーラビリティ上の問題に遭遇することが多い。
本稿では,SparseDiffについて紹介する。SparseDiffは,グラフ生成のためのデノナイズ拡散モデルである。
実験結果から, SparseDiffは, 小グラフと大グラフの両方において, 生成性能の同時一致を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Latent Graph Inference using Product Manifolds [0.0]
遅延グラフ学習のための離散微分可能グラフモジュール(dDGM)を一般化する。
我々の新しいアプローチは、幅広いデータセットでテストされ、元のdDGMモデルよりも優れています。
論文 参考訳(メタデータ) (2022-11-26T22:13:06Z) - Features Based Adaptive Augmentation for Graph Contrastive Learning [0.0]
自己監督学習は、グラフ表現学習における高価なアノテーションの必要性を排除することを目的としている。
機能に基づく適応拡張(FebAA)アプローチを導入し、潜在的に影響力のある機能を特定し保存する。
8つのグラフ表現学習のベンチマークデータセットにおいて,GRACEとBGRLの精度を向上させることに成功した。
論文 参考訳(メタデータ) (2022-07-05T03:41:20Z) - Score-based Generative Modeling of Graphs via the System of Stochastic
Differential Equations [57.15855198512551]
本稿では,連続時間フレームワークを用いたグラフのスコアベース生成モデルを提案する。
本手法は, トレーニング分布に近い分子を生成できるが, 化学価数則に違反しないことを示す。
論文 参考訳(メタデータ) (2022-02-05T08:21:04Z) - Relational VAE: A Continuous Latent Variable Model for Graph Structured
Data [0.0]
シミュレーションおよび実風力発電モニタリングデータに対する構造的確率密度モデルの適用例を示す。
ソースコードとシミュレートされたデータセットを合わせてリリースします。
論文 参考訳(メタデータ) (2021-06-30T13:24:27Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Learning Graphons via Structured Gromov-Wasserstein Barycenters [143.42601038462965]
本稿では,graphonと呼ばれる非パラメトリックグラフモデルを学ぶための新しい原理的手法を提案する。
提案手法は, 従来の最先端手法の欠点を克服し, 合成データと実データの両方でそれを上回る。
論文 参考訳(メタデータ) (2020-12-10T13:04:29Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Neural Stochastic Block Model & Scalable Community-Based Graph Learning [8.00785050036369]
本稿では,グラフ学習のためのスケーラブルなコミュニティベースニューラルネットワークを提案する。
このフレームワークは,コミュニティ検出とリンク予測のタスクを通じて,グラフトポロジを学習する。
グラフアライメントと異常相関検出の2つの応用について検討する。
論文 参考訳(メタデータ) (2020-05-16T03:28:50Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。