論文の概要: Generalized Simplicial Attention Neural Networks
- arxiv url: http://arxiv.org/abs/2309.02138v2
- Date: Tue, 15 Oct 2024 13:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 13:58:59.280662
- Title: Generalized Simplicial Attention Neural Networks
- Title(参考訳): 一般化された単純注意ニューラルネットワーク
- Authors: Claudio Battiloro, Lucia Testa, Lorenzo Giusti, Stefania Sardellitti, Paolo Di Lorenzo, Sergio Barbarossa,
- Abstract要約: 我々はGSAN(Generalized Simplicial Attention Neural Networks)を紹介する。
GSANは、マスク付き自己意図層を用いて、単純な複合体に生きるデータを処理する。
これらのスキームは、タスク指向の方法で、連続した順序の隣り合う単純さに関連するデータを組み合わせる方法を学ぶ。
- 参考スコア(独自算出の注目度): 22.171364354867723
- License:
- Abstract: Graph machine learning methods excel at leveraging pairwise relations present in the data. However, graphs are unable to fully capture the multi-way interactions inherent in many complex systems. An effective way to incorporate them is to model the data on higher-order combinatorial topological spaces, such as Simplicial Complexes (SCs) or Cell Complexes. For this reason, we introduce Generalized Simplicial Attention Neural Networks (GSANs), novel neural network architectures designed to process data living on simplicial complexes using masked self-attentional layers. Hinging on topological signal processing principles, we devise a series of principled self-attention mechanisms able to process data associated with simplices of various order, such as nodes, edges, triangles, and beyond. These schemes learn how to combine data associated with neighbor simplices of consecutive order in a task-oriented fashion, leveraging on the simplicial Dirac operator and its Dirac decomposition. We also prove that GSAN satisfies two fundamental properties: permutation equivariance and simplicial-awareness. Finally, we illustrate how our approach compares favorably with other simplicial and graph models when applied to several (inductive and transductive) tasks such as trajectory prediction, missing data imputation, graph classification, and simplex prediction.
- Abstract(参考訳): グラフ機械学習手法は、データに存在するペアワイズ関係を活用するのに優れている。
しかし、グラフは多くの複雑なシステムに固有のマルチウェイ相互作用を完全に捉えることはできない。
それらを組み込む効果的な方法は、Simplicial Complexes (SC) や Cell Complexes のような高階組合せ位相空間上のデータをモデル化することである。
このような理由から,マスク付き自己意図層を用いて,単体錯体上に存在するデータを処理するように設計された新しいニューラルネットワークアーキテクチャであるGSAN(Generalized Simplicial Attention Neural Networks)を導入する。
トポロジカル信号処理の原則に基づいて、ノード、エッジ、三角形など、さまざまな順序の単純化に関連するデータを処理できる一連の原則的自己認識機構を考案する。
これらのスキームは、simplicial Dirac演算子とそのDirac分解を利用して、タスク指向の連続した順序の隣の単純さに関連するデータを組み合わせる方法を学ぶ。
また、GSANは置換同値と単純認識という2つの基本的な性質を満たすことを証明している。
最後に, トラジェクティブ予測, 欠落データ計算, グラフ分類, 単純予測といった, 帰納的および帰納的タスクに適用した場合の, その他の単純およびグラフモデルとの比較について述べる。
関連論文リスト
- Learning graphs and simplicial complexes from data [26.926502862698168]
利用可能なデータから基礎となるグラフトポロジを推定する新しい手法を提案する。
また、文献では2次simplicial Complex (SCs) として言及されている3-ノード相互作用を同定する。
合成および実世界のデータに対する実験結果から,既存手法と比較して,本手法の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-16T22:02:20Z) - SC-MAD: Mixtures of Higher-order Networks for Data Augmentation [36.33265644447091]
単純複体は、グラフニューラルネットワーク(GNN)の単純複体モデルへの一般化にインスピレーションを与えた。
本稿では, 線形および非線形混合機構による単純錯体のデータ増大について述べる。
理論的には、合成単純錯体は、同型密度に関して、既存のデータ間で相互に相互作用することを示した。
論文 参考訳(メタデータ) (2023-09-14T06:25:39Z) - Cell Attention Networks [25.72671436731666]
グラフの頂点上で定義されたデータを操作するニューラルネットワークであるCell Attention Networks (CANs)を紹介する。
CANは、細胞複合体にコードされているように、下部と上部の地区を利用して、2つの独立したマスク付き自己保持機構を設計する。
実験結果から,CANはグラフベースの学習課題における技術結果と同等に比較可能な,低複雑性戦略であることが示唆された。
論文 参考訳(メタデータ) (2022-09-16T21:57:39Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Simplicial Attention Networks [0.0]
異なるレイヤでデータコンポーネントを処理できる適切な自己アテンションメカニズムを導入します。
与えられた位相領域の上と下の両方の近傍を、完全にタスク指向の方法で重み付けする方法を学ぶ。
提案手法は,異なるタスク(帰納的タスク,帰納的タスク)に適用した場合,他の手法と良好に比較できる。
論文 参考訳(メタデータ) (2022-03-14T20:47:31Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。