論文の概要: Graph Convolutional Neural Networks as Parametric CoKleisli morphisms
- arxiv url: http://arxiv.org/abs/2212.00542v1
- Date: Thu, 1 Dec 2022 14:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:33:21.294978
- Title: Graph Convolutional Neural Networks as Parametric CoKleisli morphisms
- Title(参考訳): パラメトリックCoKleisli型としてのグラフ畳み込みニューラルネットワーク
- Authors: Bruno Gavranovi\'c, Mattia Villani
- Abstract要約: 任意のグラフに対して$n$ノードを持つグラフ畳み込みニューラルネットワークを$mathbfGCNN_n$で定義する。
積コモナドのCoKleisli圏に基底圏をセットした、 $mathbfPara$ と $mathbfLens$ という、すでに存在するディープラーニングのカテゴリ構成を導出できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We define the bicategory of Graph Convolutional Neural Networks
$\mathbf{GCNN}_n$ for an arbitrary graph with $n$ nodes. We show it can be
factored through the already existing categorical constructions for deep
learning called $\mathbf{Para}$ and $\mathbf{Lens}$ with the base category set
to the CoKleisli category of the product comonad. We prove that there exists an
injective-on-objects, faithful 2-functor $\mathbf{GCNN}_n \to
\mathbf{Para}(\mathsf{CoKl}(\mathbb{R}^{n \times n} \times -))$. We show that
this construction allows us to treat the adjacency matrix of a GCNN as a global
parameter instead of a a local, layer-wise one. This gives us a high-level
categorical characterisation of a particular kind of inductive bias GCNNs
possess. Lastly, we hypothesize about possible generalisations of GCNNs to
general message-passing graph neural networks, connections to equivariant
learning, and the (lack of) functoriality of activation functions.
- Abstract(参考訳): グラフ畳み込みニューラルネットワークの双カテゴリを、任意のグラフに対して$n$ノードを持つ$\mathbf{gcnn}_n$で定義する。
我々は、積コモナドのCoKleisli圏に基底圏をセットした、 $\mathbf{Para}$ と $\mathbf{Lens}$ と呼ばれるディープラーニングのための既に存在するカテゴリ構成を導出できることを示した。
単射(injective-on-objects)、忠実な 2-functor $\mathbf{GCNN}_n \to \mathbf{Para}(\mathsf{CoKl}(\mathbb{R}^{n \times n} \times -)$ が存在することを証明している。
本稿では,この構成により,GCNNの隣接行列を局所的な階層的パラメータではなくグローバルパラメータとして扱うことができることを示す。
これにより、GCNNが持つ特定の帰納バイアスの高レベルの分類的特徴付けが得られる。
最後に、一般的なメッセージパッシンググラフニューラルネットワークへのgcnnの一般化の可能性、同変学習への接続、およびアクティベーション関数の実用性について仮定する。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Calibrate and Boost Logical Expressiveness of GNN Over Multi-Relational
and Temporal Graphs [8.095679736030146]
2つの変数と数量化器を持つ一階述語論理の断片である$mathcalFOC$NNについて検討する。
本稿では,線形時間で実行可能な,前処理ステップに似た単純なグラフ変換手法を提案する。
我々の結果は,グラフ変換によるR$2$-GNNが,合成および実世界のデータセットのベースライン手法よりも優れていることを一貫して示している。
論文 参考訳(メタデータ) (2023-11-03T00:33:24Z) - GC-Flow: A Graph-Based Flow Network for Effective Clustering [10.354035049272095]
グラフ畳み込みネットワーク(GCN)は、グラフデータの半教師付き分類のために、クラス後部$p(y|mathbfx)$を直接モデル化する固有モデルである。
この作業では、GCN層を置き換える正規化フローを設計し、クラス条件付き可能性$p(mathbfx|y)$とクラス前の$p(y)$の両方をモデル化する表現モデルを作成します。
結果のニューラルネットワークであるGC-Flowは、装備中にグラフ畳み込み操作を保持する
論文 参考訳(メタデータ) (2023-05-26T22:11:38Z) - Exponentially Improving the Complexity of Simulating the
Weisfeiler-Lehman Test with Graph Neural Networks [22.36443060418036]
非同型グラフの識別におけるグラフニューラルネットワーク(GNN)の表現力は、Weisfeiler-Lehmanグラフテストと全く同じであることを示す。
本稿では,GNN 上での WL テストの高速化について述べる。
論文 参考訳(メタデータ) (2022-11-06T22:38:49Z) - Graph Neural Network Bandits [89.31889875864599]
グラフ構造データ上で定義された報酬関数を用いた帯域最適化問題を考察する。
この設定の主な課題は、大きなドメインへのスケーリングと、多くのノードを持つグラフへのスケーリングである。
グラフニューラルネットワーク(GNN)を用いて報酬関数を推定できることを示す。
論文 参考訳(メタデータ) (2022-07-13T18:12:36Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - Homogeneous vector bundles and $G$-equivariant convolutional neural
networks [0.0]
G$-equivariant convolutional Neural Network (GCNN) は、均一な$G$-space $mathcalM$で定義されたデータの幾何学的深層学習モデルである。
本稿では、一モジュラーリー群 $G$ およびコンパクト部分群 $K leq G$ の場合、同次空間 $mathcalM = G/K$ 上の GCNN を解析する。
論文 参考訳(メタデータ) (2021-05-12T02:06:04Z) - Learning Over-Parametrized Two-Layer ReLU Neural Networks beyond NTK [58.5766737343951]
2層ニューラルネットワークを学習する際の降下のダイナミクスについて考察する。
過度にパラメータ化された2層ニューラルネットワークは、タンジェントサンプルを用いて、ほとんどの地上で勾配損失を許容的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-09T07:09:28Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。