論文の概要: A Markov Random Field model for Hypergraph-based Machine Learning
- arxiv url: http://arxiv.org/abs/2308.14172v4
- Date: Fri, 08 Aug 2025 11:22:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 14:17:28.750594
- Title: A Markov Random Field model for Hypergraph-based Machine Learning
- Title(参考訳): ハイパーグラフに基づく機械学習のためのマルコフ確率場モデル
- Authors: Bohan Tang, Keyue Jiang, Laura Toni, Siheng Chen, Xiaowen Dong,
- Abstract要約: 本稿では,ハイパーグラフ上でのデータ生成プロセスをモデル化する上での課題について述べる。
提案したデータ生成プロセスは、様々なハイパーグラフ機械学習タスクに価値ある帰納バイアスを与える。
本稿では,1)HGSIという独自のハイパーグラフ構造推論フレームワーク,2)ハイパーグラフ上のノード分類のためのHypergraph-MLPという新しい学習フレームワークを紹介する。
- 参考スコア(独自算出の注目度): 38.44721289347428
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding the data-generating process is essential for building machine learning models that generalise well while ensuring robustness and interpretability. This paper addresses the fundamental challenge of modelling the data generation processes on hypergraphs and explores how such models can inform the design of machine learning algorithms for hypergraph data. The key to our approach is the development of a hypergraph Markov random field that models the joint distribution of the node features and hyperedge features in a hypergraph through a multivariate Gaussian distribution whose covariance matrix is uniquely determined by the hypergraph structure. The proposed data-generating process provides a valuable inductive bias for various hypergraph machine learning tasks, thus enhancing the algorithm design. In this paper, we focus on two representative downstream tasks: structure inference and node classification. Accordingly, we introduce two novel frameworks: 1) an original hypergraph structure inference framework named HGSI, and 2) a novel learning framework entitled Hypergraph-MLP for node classification on hypergraphs. Empirical evaluation of the proposed frameworks demonstrates that: 1) HGSI outperforms existing hypergraph structure inference methods on both synthetic and real-world data; and 2) Hypergraph-MLP outperforms baselines in six hypergraph node classification benchmarks, at the same time promoting runtime efficiency and robustness against structural perturbations during inference.
- Abstract(参考訳): データ生成プロセスを理解することは、堅牢性と解釈可能性を確保しながら、適切に一般化する機械学習モデルを構築するために不可欠である。
本稿では,ハイパーグラフ上でのデータ生成プロセスをモデル化する上での根本的な課題に対処し,ハイパーグラフデータのための機械学習アルゴリズムの設計について考察する。
このアプローチの鍵となるのは、ハイパーグラフ構造によって共分散行列が一意に決定される多変量ガウス分布を通して、ハイパーグラフにおけるノード特徴とハイパーエッジ特徴の結合分布をモデル化するハイパーグラフマルコフランダム場の開発である。
提案したデータ生成プロセスは、様々なハイパーグラフ機械学習タスクに価値ある帰納バイアスを与え、アルゴリズム設計を強化する。
本稿では、構造推定とノード分類という2つのダウンストリームタスクに焦点をあてる。
そこで,2つの新しいフレームワークを紹介した。
1)HGSIという,もともとのハイパーグラフ構造推論フレームワーク
2)ハイパーグラフ上のノード分類のためのHypergraph-MLPという新しい学習フレームワーク。
提案したフレームワークの実証的な評価は、次のように示している。
1)HGSIは、合成データと実世界のデータの両方において、既存のハイパーグラフ構造推定手法より優れている。
2) Hypergraph-MLPは6つのハイパーグラフノード分類ベンチマークでベースラインを上回り,同時に推論時の構造摂動に対する実行効率と堅牢性を向上する。
関連論文リスト
- SPHINX: Structural Prediction using Hypergraph Inference Network [19.853413818941608]
本稿では,非教師付き手法で遅延ハイパーグラフ構造を推論するモデルであるハイパーグラフ推論ネットワーク(SPHINX)を用いた構造予測を提案する。
k-サブセットサンプリングの最近の進歩は、離散ハイパーグラフ構造を生成するのに適したツールであることを示す。
結果として得られるモデルは、現代のハイパーグラフニューラルネットワークに必要な高次構造を生成することができる。
論文 参考訳(メタデータ) (2024-10-04T07:49:57Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Learning Hypergraphs From Signals With Dual Smoothness Prior [32.57393976907129]
観測信号から意味のあるハイパーグラフトポロジを推定する枠組みを提案する。
提案手法は,観測信号から有意義なハイパーグラフトポロジを効率的に推定することができる。
論文 参考訳(メタデータ) (2022-11-03T11:13:02Z) - Deep Hypergraph Structure Learning [34.972686247703024]
高次相関の学習は、近年、ハイパーグラフが広く使われているデータ表現学習において、優位性を示している。
データ間のハイパーグラフ構造の生成方法はまだ難しい課題です。
DeepHGSLはハイパーグラフに基づく表現学習のためのハイパーグラフ構造を最適化するために設計されている。
論文 参考訳(メタデータ) (2022-08-26T10:00:11Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。