論文の概要: Sheaf Neural Networks
- arxiv url: http://arxiv.org/abs/2012.06333v1
- Date: Tue, 8 Dec 2020 01:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:49:36.862586
- Title: Sheaf Neural Networks
- Title(参考訳): せん断ニューラルネットワーク
- Authors: Jakob Hansen and Thomas Gebhart
- Abstract要約: 本稿では, グラフ畳み込みネットワークを一般化し, このクラスに基づく拡散操作を一般化する。
その結果,ノード間の関係が非対称で署名された領域におけるグラフ畳み込みネットワークよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a generalization of graph convolutional networks by generalizing
the diffusion operation underlying this class of graph neural networks. These
sheaf neural networks are based on the sheaf Laplacian, a generalization of the
graph Laplacian that encodes additional relational structure parameterized by
the underlying graph. The sheaf Laplacian and associated matrices provide an
extended version of the diffusion operation in graph convolutional networks,
providing a proper generalization for domains where relations between nodes are
non-constant, asymmetric, and varying in dimension. We show that the resulting
sheaf neural networks can outperform graph convolutional networks in domains
where relations between nodes are asymmetric and signed.
- Abstract(参考訳): 本稿では,このグラフニューラルネットワークのクラスに基づく拡散操作を一般化することにより,グラフ畳み込みネットワークの一般化を提案する。
これらの層ニューラルネットワークは、基盤となるグラフによってパラメータ化された追加の関係構造を符号化するグラフラプラシアンの一般化である層ラプラシアンに基づいている。
層ラプラシアンおよび関連する行列は、グラフ畳み込みネットワークにおける拡散操作の拡張版を提供し、ノード間の関係が非定常で非対称で次元が変化する領域に対して適切な一般化を提供する。
その結果,ノード間の関係が非対称で署名された領域におけるグラフ畳み込みネットワークよりも優れていることを示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Generalization Error of Graph Neural Networks in the Mean-field Regime [10.35214360391282]
グラフ畳み込みニューラルネットワークとメッセージパッシンググラフニューラルネットワークという,広く利用されている2種類のグラフニューラルネットワークについて検討する。
我々の新しいアプローチは、これらのグラフニューラルネットワークの一般化誤差を評価する平均場内上限を導出することである。
論文 参考訳(メタデータ) (2024-02-10T19:12:31Z) - Topological Neural Networks: Mitigating the Bottlenecks of Graph Neural
Networks via Higher-Order Interactions [1.994307489466967]
この研究は、メッセージパッシングニューラルネットワークにおいて、ネットワークの幅、深さ、グラフトポロジがオーバーカッシング現象に与える影響を明らかにする理論的枠組みから始まる。
この研究は、トポロジカルニューラルネットワークを通して高次相互作用と多関係帰納バイアスへと流れていく。
グラフ注意ネットワークにインスパイアされた2つのトポロジカルアテンションネットワーク(Simplicial and Cell Attention Networks)が提案されている。
論文 参考訳(メタデータ) (2024-02-10T08:26:06Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - A Survey on Graph Classification and Link Prediction based on GNN [11.614366568937761]
本稿では,グラフ畳み込みニューラルネットワークの世界について述べる。
グラフ畳み込みニューラルネットワークの基礎を詳述する。
注意機構とオートエンコーダに基づいて、グラフニューラルネットワークモデルを解明する。
論文 参考訳(メタデータ) (2023-07-03T09:08:01Z) - Graph Convolutional Networks from the Perspective of Sheaves and the
Neural Tangent Kernel [0.0]
グラフ畳み込みネットワークはディープニューラルネットワークアルゴリズムの一般的なクラスである。
その成功にもかかわらず、グラフ畳み込みネットワークには、過度に滑らかな関数やホモ親近性関数の学習へのバイアスなど、多くの特異な特徴がある。
せん断畳み込みネットワークのニューラル・タンジェント・カーネルの研究により,このギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2022-08-19T12:46:49Z) - Transition to Linearity of General Neural Networks with Directed Acyclic
Graph Architecture [20.44438519046223]
我々は、任意の有向非巡回グラフに対応するフィードフォワードニューラルネットワークが、その"幅"が無限大に近づくにつれて、線形性へ遷移することを示す。
本研究は,線形性への遷移を基礎とする数学的構造を同定し,ニューラルネットワークカーネルの線形性や整合性への遷移を特徴付けることを目的とした最近の多くの研究を一般化するものである。
論文 参考訳(メタデータ) (2022-05-24T04:57:35Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。