論文の概要: Higher-Order Topological Directionality and Directed Simplicial Neural Networks
- arxiv url: http://arxiv.org/abs/2409.08389v3
- Date: Thu, 16 Jan 2025 15:32:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 18:31:21.246481
- Title: Higher-Order Topological Directionality and Directed Simplicial Neural Networks
- Title(参考訳): 高次トポロジカル指向性と単純なニューラルネットワーク
- Authors: Manuel Lecha, Andrea Cavallo, Francesca Dominici, Elvin Isufi, Claudio Battiloro,
- Abstract要約: そこで我々は,高次方向性の概念を導入し,それに基づいてDir-SNN(Directed Simplicial Neural Networks)を設計した。
Dir-SNNは、有向simplicialコンプレックスで動作するメッセージパッシングネットワークである。
合成ソースローカライゼーションタスクの実験により、Dir-SNNは、基礎となるコンプレックスが向くと、無向SNNよりも優れることを示した。
- 参考スコア(独自算出の注目度): 12.617840099457066
- License:
- Abstract: Topological Deep Learning (TDL) has emerged as a paradigm to process and learn from signals defined on higher-order combinatorial topological spaces, such as simplicial or cell complexes. Although many complex systems have an asymmetric relational structure, most TDL models forcibly symmetrize these relationships. In this paper, we first introduce a novel notion of higher-order directionality and we then design Directed Simplicial Neural Networks (Dir-SNNs) based on it. Dir-SNNs are message-passing networks operating on directed simplicial complexes able to leverage directed and possibly asymmetric interactions among the simplices. To our knowledge, this is the first TDL model using a notion of higher-order directionality. We theoretically and empirically prove that Dir-SNNs are more expressive than their directed graph counterpart in distinguishing isomorphic directed graphs. Experiments on a synthetic source localization task demonstrate that Dir-SNNs outperform undirected SNNs when the underlying complex is directed, and perform comparably when the underlying complex is undirected.
- Abstract(参考訳): トポロジカル・ディープ・ラーニング(TDL)は、単純化や細胞複合体のような高次組合せトポロジカル・トポロジカル・スペースで定義された信号の処理と学習のパラダイムとして登場した。
多くの複雑な系は非対称な関係構造を持つが、ほとんどのTDLモデルはこれらの関係を強制的に対称性付けている。
本稿では,まず高次方向性の概念を導入し,それに基づいてDir-SNN(Directed Simplicial Neural Networks)を設計する。
Dir-SNNは、有向およびおそらく非対称な相互作用をシンプルに活用できる有向simplicialコンプレックス上で動作するメッセージパッシングネットワークである。
我々の知る限り、これは高次方向性の概念を用いた最初のTDLモデルである。
我々は、Dir-SNNが同型有向グラフの区別において、その有向グラフよりも表現性が高いことを理論的および経験的に証明する。
合成ソースローカライゼーションタスクの実験により、Dir-SNNは、基礎となるコンプレックスが指示されたとき、非指向SNNよりも優れ、基礎となるコンプレックスが指示されていないとき、コンパラブルに実行可能であることが示された。
関連論文リスト
- TopoTune : A Framework for Generalized Combinatorial Complex Neural Networks [5.966445718346143]
一般化されたCCNNは、任意の(グラフ)ニューラルネットワークをトポロジカルディープラーニングに変換するために使用することができる。
TDLを加速し、民主化するために、私たちは、実践者が前例のない柔軟性と容易さでGCCNを定義し、構築し、訓練できる軽量ソフトウェアであるTopoTuneを紹介します。
論文 参考訳(メタデータ) (2024-10-09T04:07:20Z) - Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - Topological Neural Networks go Persistent, Equivariant, and Continuous [6.314000948709255]
我々は,GNN/TNNとPHの交差において,様々な手法を仮定し,統一するフレームワークとしてTopNetsを紹介した。
TopNetは、抗体設計、分子動力学シミュレーション、薬物特性予測など、さまざまなタスクで強力なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-06-05T11:56:54Z) - E(n) Equivariant Topological Neural Networks [10.603892843083173]
グラフニューラルネットワークはペアインタラクションのモデリングに優れていますが、高階インタラクションや機能に柔軟に対応できません。
トポロジカルディープラーニング(TDL)がこの問題に対処するための有望なツールとして最近登場した。
本稿では,E(n)-同変トポロジカルニューラルネットワーク(ETNN)を紹介する。
ETNNは回転、反射、翻訳を尊重しながら幾何学的ノードの特徴を取り入れている。
論文 参考訳(メタデータ) (2024-05-24T10:55:38Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Simplicial Attention Networks [4.401427499962144]
SNN(Simplicial Neural Networks)は、simplicial Complex上でメッセージパッシングを実行することによって、自然な相互作用をモデル化する。
Simplicial Attention Networks (SAT) は,近隣のsimplicial間の相互作用を動的に重み付けする,新しいタイプのsimplicial Networks を提案する。
SATは、既存の畳み込みSNNとGNNを2つの画像および軌跡分類タスクで上回ることを示す。
論文 参考訳(メタデータ) (2022-04-20T13:41:50Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Simplicial Neural Networks [0.0]
SNN(Simplicial Neural Network)を提案する。
SNNは、Simplicial Complexと呼ばれる位相空間のクラスに存在するデータへのグラフニューラルネットワークの一般化である。
我々は,コオーサシップコンプレックスの欠落したデータを出力する作業において,SNNを試験する。
論文 参考訳(メタデータ) (2020-10-07T20:15:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。