論文の概要: SPHINX: Structural Prediction using Hypergraph Inference Network
- arxiv url: http://arxiv.org/abs/2410.03208v1
- Date: Fri, 4 Oct 2024 07:49:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 02:54:39.891171
- Title: SPHINX: Structural Prediction using Hypergraph Inference Network
- Title(参考訳): SPHINX:ハイパーグラフ推論ネットワークを用いた構造予測
- Authors: Iulia Duta, Pietro Liò,
- Abstract要約: 本稿では,非教師付き手法で遅延ハイパーグラフ構造を推論するモデルであるハイパーグラフ推論ネットワーク(SPHINX)を用いた構造予測を提案する。
k-サブセットサンプリングの最近の進歩は、離散ハイパーグラフ構造を生成するのに適したツールであることを示す。
結果として得られるモデルは、現代のハイパーグラフニューラルネットワークに必要な高次構造を生成することができる。
- 参考スコア(独自算出の注目度): 19.853413818941608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The importance of higher-order relations is widely recognized in a large number of real-world systems. However, annotating them is a tedious and sometimes impossible task. Consequently, current approaches for data modelling either ignore the higher-order interactions altogether or simplify them into pairwise connections. In order to facilitate higher-order processing, even when a hypergraph structure is not available, we introduce Structural Prediction using Hypergraph Inference Network (SPHINX), a model that learns to infer a latent hypergraph structure in an unsupervised way, solely from the final node-level signal. The model consists of a soft, differentiable clustering method used to sequentially predict, for each hyperedge, the probability distribution over the nodes and a sampling algorithm that converts them into an explicit hypergraph structure. We show that the recent advancement in k-subset sampling represents a suitable tool for producing discrete hypergraph structures, addressing some of the training instabilities exhibited by prior works. The resulting model can generate the higher-order structure necessary for any modern hypergraph neural network, facilitating the capture of higher-order interaction in domains where annotating them is difficult. Through extensive ablation studies and experiments conducted on two challenging datasets for trajectory prediction, we demonstrate that our model is capable of inferring suitable latent hypergraphs, that are interpretable and enhance the final performance.
- Abstract(参考訳): 高次関係の重要性は、多くの現実世界システムにおいて広く認識されている。
しかし、それらに注釈をつけるのは退屈な作業であり、時には不可能な作業である。
その結果、データモデリングの現在のアプローチは、高次相互作用を完全に無視するか、あるいはペア接続に単純化する。
高次処理を容易にするため、ハイパーグラフ構造が利用できない場合でも、最終ノードレベル信号のみから、非教師なしの方法で遅延ハイパーグラフ構造を推論するモデルであるハイパーグラフ推論ネットワーク(SPHINX)を用いて構造予測を導入する。
このモデルは、各ハイパーエッジに対して、ノード上の確率分布を逐次予測するために使用されるソフトで微分可能なクラスタリング法と、それらを明示的なハイパーグラフ構造に変換するサンプリングアルゴリズムから構成される。
近年のk-サブセットサンプリングの進歩は,先行研究で示されたトレーニング不安定性のいくつかに対処して,離散ハイパーグラフ構造を生成するのに適したツールであることが示されている。
結果として得られるモデルは、最新のハイパーグラフニューラルネットワークに必要な高次構造を生成することができ、注釈付けが難しいドメインでの高次相互作用のキャプチャを容易にする。
トラジェクトリ予測のための2つの挑戦的データセットを用いて行った広範囲なアブレーション研究と実験を通じて、我々のモデルは、解釈可能で最終的な性能を高めるための適切な潜時ハイパーグラフを推測できることを実証した。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Sheaf Hypergraph Networks [10.785525697855498]
本稿では,従来のハイパーグラフに余分な構造を加える数学的構造であるハイパーグラフのセルシーブを紹介する。
文献中の既存のラプラシアンからインスピレーションを得て、我々は2つの独特なシェフハイパーグラフラプラシアンの定式化を開発した。
我々は、これらの層ハイパーグラフラプラシアンを用いて、層ハイパーグラフニューラルネットワークと層ハイパーグラフ畳み込みニューラルネットワークの2つのモデルのカテゴリを設計する。
論文 参考訳(メタデータ) (2023-09-29T10:25:43Z) - Hypergraph Structure Inference From Data Under Smoothness Prior [46.568839316694515]
本稿では,ラベル付きデータを監視対象とせずに,潜在的なハイパーエッジの確率を推定する手法を提案する。
本稿では,この手法を用いてハイパーグラフ構造とノード特徴の関係を確率論的モデリングにより導出する。
本手法は,既存のハイパーグラフ構造推定法よりも効率的にデータから有意義なハイパーグラフ構造を学習できることを示す。
論文 参考訳(メタデータ) (2023-08-27T18:28:58Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z) - Generative hypergraph clustering: from blockmodels to modularity [26.99290024958576]
異質なノード度とエッジサイズを持つクラスタ化ハイパーグラフの表現的生成モデルを提案する。
我々は,100万ノードの合成ハイパーグラフを用いた実験など,ハイパーグラフ・ルーバインは高度にスケーラブルであることを示す。
このモデルを用いて,学校連絡ネットワークにおける高次構造の異なるパターン,米国議会法案共同提案,米国議会委員会,共同購入行動における製品カテゴリ,ホテルロケーションを分析した。
論文 参考訳(メタデータ) (2021-01-24T00:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。