論文の概要: NervePool: A Simplicial Pooling Layer
- arxiv url: http://arxiv.org/abs/2305.06315v1
- Date: Wed, 10 May 2023 17:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:05:59.690855
- Title: NervePool: A Simplicial Pooling Layer
- Title(参考訳): NervePool: 単純なプールレイヤー
- Authors: Sarah McGuire, Elizabeth Munch, Matthew Hirn
- Abstract要約: 単純な複合体として構造化されたデータに対して、プール層であるNervePoolを定義します。
NervePoolはsimplicial Complexの階層的な表現を生成し、学習された方法で情報を分解する。
実際には、プーリング操作は一連の行列演算によって計算されるが、トポロジカルモチベーションは、単純化された恒星と神経複合体の結合に基づく集合論的な構成である。
- 参考スコア(独自算出の注目度): 1.0312968200748118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For deep learning problems on graph-structured data, pooling layers are
important for down sampling, reducing computational cost, and to minimize
overfitting. We define a pooling layer, NervePool, for data structured as
simplicial complexes, which are generalizations of graphs that include
higher-dimensional simplices beyond vertices and edges; this structure allows
for greater flexibility in modeling higher-order relationships. The proposed
simplicial coarsening scheme is built upon partitions of vertices, which allow
us to generate hierarchical representations of simplicial complexes, collapsing
information in a learned fashion. NervePool builds on the learned vertex
cluster assignments and extends to coarsening of higher dimensional simplices
in a deterministic fashion. While in practice, the pooling operations are
computed via a series of matrix operations, the topological motivation is a
set-theoretic construction based on unions of stars of simplices and the nerve
complex
- Abstract(参考訳): グラフ構造データに関するディープラーニング問題では,ダウンサンプリングや計算コストの削減,オーバーフィッティングの最小化などにおいて,レイヤのプーリングが重要である。
これは頂点や辺を超えた高次元の単純化を含むグラフの一般化であり、この構造は高次関係のモデリングにおいてより柔軟である。
提案手法は頂点の分割の上に構築され, 単純錯体の階層的な表現を生成でき, 情報を学習方法で折り畳むことができる。
NervePoolは学習した頂点クラスタ割り当てに基づいて構築され、決定論的手法で高次元の単純化を粗くする。
実際には、プール操作は一連の行列演算によって計算されるが、トポロジカルモチベーションは、単純化の星と神経複合体の結合に基づく集合論的な構成である。
関連論文リスト
- Defining Neural Network Architecture through Polytope Structures of
Dataset [60.142611380235856]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - Latent Random Steps as Relaxations of Max-Cut, Min-Cut, and More [30.919536115917726]
クラスタリングと単純化を統一する非負行列分解に基づく確率モデルを提案する。
ハードクラスタリングをソフトクラスタリングに緩和することにより、ハードクラスタリングの潜在的な問題をトラクタブルクラスタに緩和する。
論文 参考訳(メタデータ) (2023-08-12T02:47:57Z) - Pooling Strategies for Simplicial Convolutional Networks [18.80397868603073]
本研究の目的は、単純な畳み込みニューラルネットワークのプーリング戦略を導入することである。
グラフプーリング法に着想を得て,単純なプーリング層に対する一般的な定式化を導入する。
一般的なレイヤは4つの異なるプール戦略を設計するようにカスタマイズされる。
論文 参考訳(メタデータ) (2022-10-11T14:45:51Z) - Higher-order Clustering and Pooling for Graph Neural Networks [77.47617360812023]
グラフニューラルネットワークは、多数のグラフ分類タスクにおいて最先端のパフォーマンスを達成する。
HoscPoolはクラスタリングベースのグラフプーリング演算子で、階層的に高階情報をキャプチャする。
グラフ分類タスクにおいてHoscPoolを評価し,そのクラスタリングコンポーネントを地層構造を持つグラフ上で評価する。
論文 参考訳(メタデータ) (2022-09-02T09:17:10Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Pyramidal Reservoir Graph Neural Network [18.632681846787246]
本稿では,2種類の層を置換するディープグラフニューラルネットワーク(GNN)モデルを提案する。
グラフプーリングがモデルの計算複雑性をいかに低減するかを示す。
RCベースGNNの設計に対する提案手法は,精度と複雑性のトレードオフを有利かつ原則的に実現している。
論文 参考訳(メタデータ) (2021-04-10T08:34:09Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - SimPool: Towards Topology Based Graph Pooling with Structural Similarity
Features [0.0]
本稿では,2つの主要な寄与について提案する。1つ目は,隣接行列に基づく構造的類似性を計算した差分モジュールである。
2つ目の主な貢献は、これらの機能をDiffPool arXiv:1806.08804の再検討されたプール層と統合し、SimPoolと呼ばれるプーリング層を提案することである。
実験の結果、エンドツーエンドのグラフニューラルネットワークアーキテクチャの一部として、SimPoolは、より局所性に近いノードクラスタ割り当てを計算する。
論文 参考訳(メタデータ) (2020-06-03T12:51:57Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。