論文の概要: pathGCN: Learning General Graph Spatial Operators from Paths
- arxiv url: http://arxiv.org/abs/2207.07408v1
- Date: Fri, 15 Jul 2022 11:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 14:10:19.456116
- Title: pathGCN: Learning General Graph Spatial Operators from Paths
- Title(参考訳): pathGCN: パスから一般グラフ空間演算子を学ぶ
- Authors: Moshe Eliasof, Eldad Haber, Eran Treister
- Abstract要約: グラフ上のランダムパスから空間演算子を学習するための新しい手法であるpathGCNを提案する。
多数のデータセットに対する実験から,空間的および点的畳み込みを適切に学習することにより,過度なスムーシングのような現象は本質的に避けられることが示唆された。
- 参考スコア(独自算出の注目度): 9.539495585692007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs), similarly to Convolutional Neural
Networks (CNNs), are typically based on two main operations - spatial and
point-wise convolutions. In the context of GCNs, differently from CNNs, a
pre-determined spatial operator based on the graph Laplacian is often chosen,
allowing only the point-wise operations to be learnt. However, learning a
meaningful spatial operator is critical for developing more expressive GCNs for
improved performance. In this paper we propose pathGCN, a novel approach to
learn the spatial operator from random paths on the graph. We analyze the
convergence of our method and its difference from existing GCNs. Furthermore,
we discuss several options of combining our learnt spatial operator with
point-wise convolutions. Our extensive experiments on numerous datasets suggest
that by properly learning both the spatial and point-wise convolutions,
phenomena like over-smoothing can be inherently avoided, and new
state-of-the-art performance is achieved.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCN)は、通常、空間的および点的畳み込みという2つの主要な操作に基づいている。
GCNの文脈では、CNNとは違い、グラフラプラシアンに基づく事前決定された空間演算子がしばしば選択され、点演算のみを学習できる。
しかし、より表現力のあるGCNを開発するためには、意味のある空間演算子を学ぶことが重要である。
本稿では,グラフ上のランダムパスから空間演算子を学習するための新しい手法であるpathGCNを提案する。
本手法の収束度と既存のGCNとの違いを解析する。
さらに,学習した空間演算子とポイントワイド畳み込みを併用するいくつかの選択肢についても論じる。
多数のデータセットに関する広範な実験から,空間的および点的畳み込みを適切に学習することで,スモーニング現象のような現象を本質的に避けることができ,新たな最先端のパフォーマンスが達成できることが示唆された。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Tuning the Geometry of Graph Neural Networks [0.7614628596146599]
空間グラフ畳み込み演算子はグラフニューラルネットワーク(GNN)の成功の鍵として認識されている
このアグリゲーション作用素は実際にチューナブルであり、作用素の特定の選択 -- 従って、ジオメトリを埋め込む -- がより適切であるような明示的なレギュレーションであることが示される。
論文 参考訳(メタデータ) (2022-07-12T23:28:03Z) - Learning Connectivity with Graph Convolutional Networks for
Skeleton-based Action Recognition [14.924672048447338]
グラフのトポロジ特性を学習するグラフ畳み込みネットワークのための新しいフレームワークを提案する。
本手法の設計原理は制約対象関数の最適化に基づいている。
骨格に基づく行動認識の課題に対して行った実験は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2021-12-06T19:43:26Z) - Positional Encoder Graph Neural Networks for Geographic Data [1.840220263320992]
グラフニューラルネットワーク(GNN)は、連続空間データをモデリングするための強力でスケーラブルなソリューションを提供する。
本稿では,空間コンテキストと相関関係をモデルに明示的に組み込んだ新しいフレームワークPE-GNNを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:41:49Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Learning Chebyshev Basis in Graph Convolutional Networks for
Skeleton-based Action Recognition [14.924672048447338]
スペクトルグラフ畳み込みネットワーク(GCN)は、ニューラルネットワークを任意の不規則領域に拡張することを目的とした、特に深いモデルである。
通常の畳み込みパラメータだけでなくラプラシア作用素も学習する新しいスペクトルGCNを導入する。
論文 参考訳(メタデータ) (2021-04-12T14:08:58Z) - Action Recognition with Kernel-based Graph Convolutional Networks [14.924672048447338]
learning graph convolutional networks(gcns)は、ディープラーニングを任意の非正規ドメインに一般化することを目的としている。
再生カーネルヒルベルト空間(RKHS)における空間グラフ畳み込みを実現する新しいGCNフレームワークを提案する。
gcnモデルの特長は、学習グラフフィルタの受容野のノードと入力グラフのノードを明示的に認識せずに畳み込みを実現する能力にも関係しています。
論文 参考訳(メタデータ) (2020-12-28T11:02:51Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Node Masking: Making Graph Neural Networks Generalize and Scale Better [71.51292866945471]
グラフニューラルネットワーク(GNN)は近年,多くの関心を集めている。
本稿では,芸術空間のGNNの状態によって実行される操作をよりよく可視化するために,いくつかの理論ツールを利用する。
私たちはNode Maskingというシンプルなコンセプトを導入しました。
論文 参考訳(メタデータ) (2020-01-17T06:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。