論文の概要: Hypergraph Foundation Model
- arxiv url: http://arxiv.org/abs/2503.01203v1
- Date: Mon, 03 Mar 2025 05:56:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:16:43.613785
- Title: Hypergraph Foundation Model
- Title(参考訳): ハイパーグラフの基礎モデル
- Authors: Yifan Feng, Shiquan Liu, Xiangmin Han, Shaoyi Du, Zongze Wu, Han Hu, Yue Gao,
- Abstract要約: ハイパーグラフニューラルネットワーク(HGNN)は、タンパク質相互作用やソーシャルネットワークのようなドメインにおける複雑な高次関係を効果的にモデル化する。
マルチドメイン知識抽出のためのハイパーグラフ基礎モデルHyper-FMを提案する。
また、HGNNとLLMの間の研究を進めるために、10のテキスト分散ハイパーグラフデータセットをキュレートする。
- 参考スコア(独自算出の注目度): 31.16656352968761
- License:
- Abstract: Hypergraph neural networks (HGNNs) effectively model complex high-order relationships in domains like protein interactions and social networks by connecting multiple vertices through hyperedges, enhancing modeling capabilities, and reducing information loss. Developing foundation models for hypergraphs is challenging due to their distinct data, which includes both vertex features and intricate structural information. We present Hyper-FM, a Hypergraph Foundation Model for multi-domain knowledge extraction, featuring Hierarchical High-Order Neighbor Guided Vertex Knowledge Embedding for vertex feature representation and Hierarchical Multi-Hypergraph Guided Structural Knowledge Extraction for structural information. Additionally, we curate 10 text-attributed hypergraph datasets to advance research between HGNNs and LLMs. Experiments on these datasets show that Hyper-FM outperforms baseline methods by approximately 13.3\%, validating our approach. Furthermore, we propose the first scaling law for hypergraph foundation models, demonstrating that increasing domain diversity significantly enhances performance, unlike merely augmenting vertex and hyperedge counts. This underscores the critical role of domain diversity in scaling hypergraph models.
- Abstract(参考訳): ハイパーグラフニューラルネットワーク(HGNN)は、ハイパーエッジを介して複数の頂点を接続し、モデリング機能を強化し、情報損失を減らすことで、タンパク質相互作用やソーシャルネットワークのようなドメインの複雑な高次関係を効果的にモデル化する。
ハイパーグラフの基礎モデルの開発は、頂点の特徴と複雑な構造情報の両方を含む、独自のデータのために困難である。
マルチドメイン知識抽出のためのハイパーグラフ基盤モデルであるHyper-FMについて,頂点特徴表現のための階層的高次ガイドド頂点知識埋め込みと構造情報のための階層的マルチハイパーグラフガイドド構造知識抽出を特徴とする。
さらに、HGNNとLLMの間の研究を進めるために、10のテキスト分散ハイパーグラフデータセットをキュレートする。
これらのデータセットの実験では、Hyper-FMはベースライン法を約13.3倍に上回り、我々のアプローチを検証する。
さらに,ハイパーグラフ基礎モデルに対する最初のスケーリング法則を提案し,拡張頂点数やハイパーエッジ数ではなく,ドメインの多様性の増大が性能を著しく向上させることを示した。
これはハイパーグラフモデルのスケーリングにおいて、ドメインの多様性が重要な役割を担っていることを示している。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Topology-guided Hypergraph Transformer Network: Unveiling Structural Insights for Improved Representation [1.1606619391009658]
位相誘導型ハイパーグラフトランスネットワーク(THTN)を提案する。
このモデルでは、まず、構造的本質を維持しながらグラフからハイパーグラフを定式化し、グラフ内の高次関係を学習する。
本稿では,意味的,構造的両面から重要なノードとハイパーエッジを発見する構造認識型自己認識機構を提案する。
論文 参考訳(メタデータ) (2023-10-14T20:08:54Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Augmentations in Hypergraph Contrastive Learning: Fabricated and
Generative [126.0985540285981]
我々は、ハイパーグラフニューラルネットワークの一般化性を改善するために、画像/グラフからの対照的な学習アプローチ(ハイパーGCLと呼ぶ)を適用する。
我々は、高次関係を符号化したハイパーエッジを増大させる2つのスキームを作成し、グラフ構造化データから3つの拡張戦略を採用する。
拡張ビューを生成するためのハイパーグラフ生成モデルを提案し、次に、ハイパーグラフ拡張とモデルパラメータを協調的に学習するエンド・ツー・エンドの微分可能なパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-07T20:12:20Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z) - Graph Cross Networks with Vertex Infomax Pooling [69.38969610952927]
グラフの複数スケールから包括的特徴学習を実現するための新しいグラフクロスネットワーク(GXN)を提案する。
グラフのトレーニング可能な階層表現に基づいて、GXNは、スケール間で中間的特徴の交換を可能にし、情報フローを促進する。
論文 参考訳(メタデータ) (2020-10-05T06:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。