論文の概要: NGTM: Substructure-based Neural Graph Topic Model for Interpretable Graph Generation
- arxiv url: http://arxiv.org/abs/2507.13133v1
- Date: Thu, 17 Jul 2025 13:54:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.524985
- Title: NGTM: Substructure-based Neural Graph Topic Model for Interpretable Graph Generation
- Title(参考訳): NGTM:部分構造に基づく解釈可能なグラフ生成のためのニューラルグラフトピックモデル
- Authors: Yuanxin Zhuang, Dazhong Shen, Ying Sun,
- Abstract要約: 本稿では,自然言語処理におけるトピックモデリングに触発された新しい生成フレームワークであるニューラルグラフトピックモデル(NGTM)を提案する。
NGTMはグラフを潜在トピックの混合として表現し、それぞれ意味論的に意味のある部分構造上の分布を定義する。
実験により、NGTMは、粒度の細かい制御と解釈可能性を実現しつつ、競争力のある生成品質を実現することが示された。
- 参考スコア(独自算出の注目度): 4.430115182041077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph generation plays a pivotal role across numerous domains, including molecular design and knowledge graph construction. Although existing methods achieve considerable success in generating realistic graphs, their interpretability remains limited, often obscuring the rationale behind structural decisions. To address this challenge, we propose the Neural Graph Topic Model (NGTM), a novel generative framework inspired by topic modeling in natural language processing. NGTM represents graphs as mixtures of latent topics, each defining a distribution over semantically meaningful substructures, which facilitates explicit interpretability at both local and global scales. The generation process transparently integrates these topic distributions with a global structural variable, enabling clear semantic tracing of each generated graph. Experiments demonstrate that NGTM achieves competitive generation quality while uniquely enabling fine-grained control and interpretability, allowing users to tune structural features or induce biological properties through topic-level adjustments.
- Abstract(参考訳): グラフ生成は、分子設計や知識グラフ構築など、多くの領域において重要な役割を果たす。
既存の手法は現実的なグラフの生成においてかなりの成功を収めているが、その解釈性は限定的であり、しばしば構造的決定の背後にある理論的根拠を無視する。
この課題に対処するために、自然言語処理におけるトピックモデリングに触発された新しい生成フレームワークであるNGTM(Neural Graph Topic Model)を提案する。
NGTMはグラフを潜在トピックの混合として表現し、それぞれが意味論的に意味のある部分構造の分布を定義する。
生成プロセスは、これらのトピック分布をグローバルな構造変数と透過的に統合し、各生成されたグラフの明確なセマンティックトレースを可能にする。
実験により、NGTMは、微粒な制御と解釈性を一意に可能にし、ユーザーがトピックレベルの調整によって構造的特徴を調整したり、生物学的特性を誘導したりしながら、競争力のある生成品質を達成することが示された。
関連論文リスト
- GLANCE: Graph Logic Attention Network with Cluster Enhancement for Heterophilous Graph Representation Learning [54.60090631330295]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する上で大きな成功を収めている。
本稿では,論理誘導推論,動的グラフ改善,適応クラスタリングを統合し,グラフ表現学習を強化する新しいフレームワークであるGLANCEを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:45:26Z) - Graph Self-Supervised Learning with Learnable Structural and Positional Encodings [39.20899720477907]
我々は、$k$-hopメッセージパッシングスキームを統合したGNNフレームワークであるemphGenHopNetを紹介する。
また,学習過程全体を通してトポロジ的情報を組み込んだ構造的および位置対応GSSLフレームワークを提案する。
我々の研究は、類似の局所構造を持つグラフと異なるグローバルトポロジを持つグラフを区別するGSSLの能力を大幅に向上させた。
論文 参考訳(メタデータ) (2025-02-22T14:10:06Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Towards Graph Foundation Models: Training on Knowledge Graphs Enables Transferability to General Graphs [26.477872205199667]
知識グラフをトレーニングするために設計された統合グラフ推論フレームワークであるSCRを紹介する。
本稿では,従来のKG推論における意味的分離に対処する新しいメカニズムであるセマンティックコンディショニングメッセージパッシングを提案する。
以上の結果から,既存の基礎モデルよりも大幅な性能向上が見られた。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Unveiling Global Interactive Patterns across Graphs: Towards Interpretable Graph Neural Networks [31.29616732552006]
グラフニューラルネットワーク(GNN)は、グラフマイニングの著名なフレームワークとして登場した。
本稿では,グラフ分類に内在的に解釈可能な新しい手法を提案する。
グローバル対話パターン(GIP)学習は、学習可能なグローバル対話パターンを導入し、決定を明示的に解釈する。
論文 参考訳(メタデータ) (2024-07-02T06:31:13Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Self-organization Preserved Graph Structure Learning with Principle of
Relevant Information [72.83485174169027]
PRI-GSLは、自己組織化を特定し、隠された構造を明らかにするグラフ構造学習フレームワークである。
PRI-GSLは、フォン・ノイマンエントロピーと量子ジェンセン=シャノンの発散によって定量化された最も関連性が最も低い冗長な情報を含む構造を学ぶ。
論文 参考訳(メタデータ) (2022-12-30T16:02:02Z) - Heterogeneous Graph Transformer [49.675064816860505]
Webスケールの不均一グラフモデリングのための不均一グラフ変換器(HGT)アーキテクチャ
動的ヘテロジニアスグラフを扱うために、HGTに相対時間符号化手法を導入する。
Web スケールのグラフデータを扱うため,ヘテロジニアスなミニバッチグラフサンプリングアルゴリズム--HGSampling--を設計し,効率的かつスケーラブルなトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-03T04:49:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。