論文の概要: TopoTune : A Framework for Generalized Combinatorial Complex Neural Networks
- arxiv url: http://arxiv.org/abs/2410.06530v2
- Date: Fri, 11 Oct 2024 23:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 05:09:09.777992
- Title: TopoTune : A Framework for Generalized Combinatorial Complex Neural Networks
- Title(参考訳): TopoTune : 一般化された組合せ複雑ニューラルネットワークのためのフレームワーク
- Authors: Mathilde Papillon, Guillermo Bernárdez, Claudio Battiloro, Nina Miolane,
- Abstract要約: 一般化されたCCNNは、任意の(グラフ)ニューラルネットワークをトポロジカルディープラーニングに変換するために使用することができる。
TDLを加速し、民主化するために、私たちは、実践者が前例のない柔軟性と容易さでGCCNを定義し、構築し、訓練できる軽量ソフトウェアであるTopoTuneを紹介します。
- 参考スコア(独自算出の注目度): 5.966445718346143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) excel in learning from relational datasets, processing node and edge features in a way that preserves the symmetries of the graph domain. However, many complex systems--such as biological or social networks--involve multiway complex interactions that are more naturally represented by higher-order topological spaces. The emerging field of Topological Deep Learning (TDL) aims to accommodate and leverage these higher-order structures. Combinatorial Complex Neural Networks (CCNNs), fairly general TDL models, have been shown to be more expressive and better performing than GNNs. However, differently from the graph deep learning ecosystem, TDL lacks a principled and standardized framework for easily defining new architectures, restricting its accessibility and applicability. To address this issue, we introduce Generalized CCNNs (GCCNs), a novel simple yet powerful family of TDL models that can be used to systematically transform any (graph) neural network into its TDL counterpart. We prove that GCCNs generalize and subsume CCNNs, while extensive experiments on a diverse class of GCCNs show that these architectures consistently match or outperform CCNNs, often with less model complexity. In an effort to accelerate and democratize TDL, we introduce TopoTune, a lightweight software that allows practitioners to define, build, and train GCCNs with unprecedented flexibility and ease.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ領域の対称性を保存する方法で、リレーショナルデータセット、処理ノード、エッジ機能からの学習に優れています。
しかし、多くの複雑なシステム、例えば生物学やソーシャルネットワークは、より自然に高階位相空間で表されるマルチウェイの複雑な相互作用を生み出している。
トポロジカルディープラーニング(TDL)の新たな分野は、これらの高次構造を適応し活用することを目指している。
比較的一般的な TDL モデルである Combinatorial Complex Neural Networks (CCNN) は、GNN よりも表現力が高く、パフォーマンスも優れていることが示されている。
しかし、グラフ深層学習のエコシステムとは違って、TDLは新しいアーキテクチャを簡単に定義するための原則的で標準化されたフレームワークがなく、アクセシビリティと適用性を制限する。
この問題に対処するために,汎用CCNN(Generalized CCNNs,GCCNs)を導入する。これは,任意の(グラフ)ニューラルネットワークをTDLモデルに体系的に変換するために使用できる,新しい単純かつ強力なTDLモデルのファミリーである。
GCCN が CCNN を一般化・サブスメートすることを証明する一方で,多様な GCCN のクラスに対する広範な実験により,これらのアーキテクチャは CCNN との整合性や性能を保ちながら,モデルの複雑さを少なく抑えることが示されている。
TDLを加速し、民主化するために、私たちは、実践者が前例のない柔軟性と容易さでGCCNを定義し、構築し、訓練できる軽量ソフトウェアであるTopoTuneを紹介します。
関連論文リスト
- Higher-Order Topological Directionality and Directed Simplicial Neural Networks [12.617840099457066]
そこで我々は,高次方向性の概念を導入し,それに基づいてDir-SNN(Directed Simplicial Neural Networks)を設計した。
Dir-SNNは、有向simplicialコンプレックスで動作するメッセージパッシングネットワークである。
合成ソースローカライゼーションタスクの実験により、Dir-SNNは、基礎となるコンプレックスが向くと、無向SNNよりも優れることを示した。
論文 参考訳(メタデータ) (2024-09-12T20:37:14Z) - Topological Neural Networks go Persistent, Equivariant, and Continuous [6.314000948709255]
我々は,GNN/TNNとPHの交差において,様々な手法を仮定し,統一するフレームワークとしてTopNetsを紹介した。
TopNetは、抗体設計、分子動力学シミュレーション、薬物特性予測など、さまざまなタスクで強力なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-06-05T11:56:54Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Simplicial Attention Networks [4.401427499962144]
SNN(Simplicial Neural Networks)は、simplicial Complex上でメッセージパッシングを実行することによって、自然な相互作用をモデル化する。
Simplicial Attention Networks (SAT) は,近隣のsimplicial間の相互作用を動的に重み付けする,新しいタイプのsimplicial Networks を提案する。
SATは、既存の畳み込みSNNとGNNを2つの画像および軌跡分類タスクで上回ることを示す。
論文 参考訳(メタデータ) (2022-04-20T13:41:50Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z) - A Temporal Neural Network Architecture for Online Learning [0.6091702876917281]
時間的ニューラルネットワーク(TNN)は、相対スパイク時間として符号化された情報を通信し、処理する。
TNNアーキテクチャを提案し、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作を示す。
論文 参考訳(メタデータ) (2020-11-27T17:15:29Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。