論文の概要: You are AllSet: A Multiset Function Framework for Hypergraph Neural
Networks
- arxiv url: http://arxiv.org/abs/2106.13264v1
- Date: Thu, 24 Jun 2021 18:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 04:07:47.448924
- Title: You are AllSet: A Multiset Function Framework for Hypergraph Neural
Networks
- Title(参考訳): You are AllSet: ハイパーグラフニューラルネットワークのためのマルチセット関数フレームワーク
- Authors: Eli Chien, Chao Pan, Jianhao Peng, Olgica Milenkovic
- Abstract要約: 我々は、(ハイパー)グラフニューラルネットワークのための非常に一般的なフレームワークを表す新しいハイパーグラフニューラルネットワークパラダイムであるAllSetを提案する。
AllSetは初めて、ハイパーグラフニューラルネットワーク層を2つのマルチセット関数の合成として実装し、タスクとデータセット毎に効率的に学習する。
AllSetの性能を評価するため、10つの既知のデータセットと3つの新たにキュレートされたデータセットを含む、これまでで最も広範な実験を行った。
- 参考スコア(独自算出の注目度): 39.41444087030772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hypergraphs are used to model higher-order interactions amongst agents and
there exist many practically relevant instances of hypergraph datasets. To
enable efficient processing of hypergraph-structured data, several hypergraph
neural network platforms have been proposed for learning hypergraph properties
and structure, with a special focus on node classification. However, almost all
existing methods use heuristic propagation rules and offer suboptimal
performance on many datasets. We propose AllSet, a new hypergraph neural
network paradigm that represents a highly general framework for (hyper)graph
neural networks and for the first time implements hypergraph neural network
layers as compositions of two multiset functions that can be efficiently
learned for each task and each dataset. Furthermore, AllSet draws on new
connections between hypergraph neural networks and recent advances in deep
learning of multiset functions. In particular, the proposed architecture
utilizes Deep Sets and Set Transformer architectures that allow for significant
modeling flexibility and offer high expressive power. To evaluate the
performance of AllSet, we conduct the most extensive experiments to date
involving ten known benchmarking datasets and three newly curated datasets that
represent significant challenges for hypergraph node classification. The
results demonstrate that AllSet has the unique ability to consistently either
match or outperform all other hypergraph neural networks across the tested
datasets. Our implementation and dataset will be released upon acceptance.
- Abstract(参考訳): ハイパーグラフはエージェント間の高次インタラクションのモデル化に使用され、ハイパーグラフデータセットの実際に関連するインスタンスが多数存在する。
ハイパーグラフ構造データの効率的な処理を実現するために,ハイパーグラフ特性と構造を学習するためのハイパーグラフニューラルネットワークプラットフォームが提案されている。
しかし、既存のほとんどのメソッドはヒューリスティックな伝搬規則を使用しており、多くのデータセット上で最適なパフォーマンスを提供する。
ハイパーグラフニューラルネットワーク(hypergraph neural network)の非常に一般的なフレームワークを表す新しいハイパーグラフニューラルネットワークパラダイムであるallsetを提案し、タスクとデータセットごとに効率的に学習可能な2つのマルチセット関数の合成として、ハイパーグラフニューラルネットワーク層を初めて実装する。
さらに、allsetはハイパーグラフニューラルネットワーク間の新たな接続と、マルチセット関数のディープラーニングの最近の進歩を描いている。
特に、提案したアーキテクチャはDeep SetsとSet Transformerアーキテクチャを利用しており、モデリングの柔軟性が大きく、表現力が高い。
allsetの性能を評価するため、10の既知のベンチマークデータセットと、ハイパーグラフノード分類の重要な課題を表す3つの新しくキュレートされたデータセットを含む、これまでで最も広範な実験を行った。
その結果、AllSetには、テストデータセット全体にわたって、他のハイパーグラフニューラルネットワークの整合性や性能を一貫して向上させるユニークな能力があることが示された。
私たちの実装とデータセットは受け入れ次第リリースします。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Stability and Generalization of Hypergraph Collaborative Networks [3.0125530622125827]
グラフニューラルネットワークは、サンプル間のペア関係を利用するのに非常に効果的であることが示されている。
近年,グラフニューラルネットワークをハイパーグラフニューラルネットワークに一般化する提案がいくつか成功している。
本稿では,協調ネットワークのコア層のアルゴリズム的安定性を確立し,一般化を保証することを目的とする。
論文 参考訳(メタデータ) (2023-08-04T14:21:02Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - A Hypergraph Neural Network Framework for Learning Hyperedge-Dependent
Node Embeddings [39.9678554461845]
ハイパーグラフニューラルネットワーク(HNN)と呼ばれるハイパーグラフ表現学習フレームワークを導入する。
HNNはハイパーグラフの各ノードに対するハイパーエッジ依存の埋め込みセットとともに、ハイパーエッジ埋め込みを共同で学習する。
HNNは全ベースラインモデルとハイパーエッジ予測およびハイパーグラフノード分類のためのグラフで7.72%と11.37%の全体平均ゲインを達成した。
論文 参考訳(メタデータ) (2022-12-28T19:45:38Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z) - HNHN: Hypergraph Networks with Hyperedge Neurons [90.15253035487314]
HNHNはハイパーグラフ畳み込みネットワークであり、ハイパーノードとハイパーエッジの両方に非線形活性化関数が適用される。
実世界のデータセットの分類精度と速度の両面でのHNHNの性能向上を示す。
論文 参考訳(メタデータ) (2020-06-22T14:08:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。