論文の概要: SynHING: Synthetic Heterogeneous Information Network Generation for Graph Learning and Explanation
- arxiv url: http://arxiv.org/abs/2401.04133v2
- Date: Wed, 29 May 2024 04:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 23:50:38.799346
- Title: SynHING: Synthetic Heterogeneous Information Network Generation for Graph Learning and Explanation
- Title(参考訳): SynHing: グラフ学習と説明のための合成異種情報ネットワーク生成
- Authors: Ming-Yi Hong, Yi-Hsiang Huang, Shao-En Lin, You-Chen Teng, Chih-Yu Wang, Che Lin,
- Abstract要約: 合成不均一情報ネットワーク生成のための新しいフレームワークであるSynHingを紹介する。
SynHingは、ターゲットHINの主要なモチーフを体系的に識別し、クラスタ内およびクラスタ間マージモジュールによるボトムアップ生成プロセスを使用する。
GNN説明器モデルを評価するための基礎的なモチーフを提供し、説明可能な合成HIN生成のための新しい標準を設定する。
- 参考スコア(独自算出の注目度): 31.89877722246351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) excel in delineating graph structures in diverse domains, including community analysis and recommendation systems. As the interpretation of GNNs becomes increasingly important, the demand for robust baselines and expansive graph datasets is accentuated, particularly in the context of Heterogeneous Information Networks (HIN). Addressing this, we introduce SynHING, a novel framework for Synthetic Heterogeneous Information Network Generation aimed at enhancing graph learning and explanation. SynHING systematically identifies major motifs in a target HIN and employs a bottom-up generation process with intra-cluster and inter-cluster merge modules. This process, supplemented by post-pruning techniques, ensures the synthetic HIN closely mirrors the original graph's structural and statistical properties. Crucially, SynHING provides ground-truth motifs for evaluating GNN explainer models, setting a new standard for explainable, synthetic HIN generation and contributing to the advancement of interpretable machine learning in complex networks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、コミュニティ分析やレコメンデーションシステムなど、さまざまな領域でグラフ構造を記述している。
GNNの解釈がますます重要になるにつれて、堅牢なベースラインと拡張グラフデータセットの需要は、特に異種情報ネットワーク(HIN)の文脈において強調される。
そこで我々はSynHingを紹介した。SynHingはグラフ学習と説明の強化を目的としたSynthetic Heterogeneous Information Network Generationの新しいフレームワークである。
SynHingは、ターゲットHINの主要なモチーフを体系的に識別し、クラスタ内およびクラスタ間マージモジュールによるボトムアップ生成プロセスを使用する。
この過程は、後処理技術によって補われ、合成HINが元のグラフの構造的および統計的性質を密接に反映することを保証する。
重要な点として、SynHingはGNN説明モデルの評価、説明可能な合成HIN生成のための新しい標準の設定、複雑なネットワークにおける解釈可能な機械学習の進歩に寄与する、地道なモチーフを提供する。
関連論文リスト
- Self-Supervised Graph Neural Networks for Enhanced Feature Extraction in Heterogeneous Information Networks [16.12856816023414]
本稿では,インターネットの急速な発展に伴う複雑なグラフデータ処理におけるグラフニューラルネットワーク(GNN)の適用と課題について考察する。
自己監督機構を導入することにより、グラフデータの多様性と複雑さに対する既存モデルの適合性を向上させることが期待されている。
論文 参考訳(メタデータ) (2024-10-23T07:14:37Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - HINormer: Representation Learning On Heterogeneous Information Networks
with Graph Transformer [29.217820912610602]
グラフトランスフォーマー(GT)は、グラフ全体にわたってもメッセージパッシングがより広範なカバレッジに伝達できるパラダイムで機能する。
ヘテロジニアス情報ネットワーク(HIN)におけるGTの探索はまだ未公開である。
本稿では,ノード表現学習のための大域集約機構を利用するHINormerという新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-02-22T12:25:07Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Overcoming Oversmoothness in Graph Convolutional Networks via Hybrid
Scattering Networks [11.857894213975644]
本稿では,従来のGCNフィルタと幾何散乱変換を用いて定義された帯域通過フィルタを組み合わせたハイブリッドグラフニューラルネットワーク(GNN)フレームワークを提案する。
理論的には, グラフからの構造情報を活用するために散乱フィルタの相補的な利点が確立され, 実験では様々な学習課題における手法の利点が示された。
論文 参考訳(メタデータ) (2022-01-22T00:47:41Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。