論文の概要: Unified GCNs: Towards Connecting GCNs with CNNs
- arxiv url: http://arxiv.org/abs/2204.12300v1
- Date: Tue, 26 Apr 2022 13:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:28:48.405366
- Title: Unified GCNs: Towards Connecting GCNs with CNNs
- Title(参考訳): 統一GCN:GCNとCNNの接続を目指して
- Authors: Ziyan Zhang, Bo Jiang, and Bin Luo
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、グラフデータの表現と学習において、その強力な能力を広く実証している。
本稿では,GCNとCNNの接続について,深い分離可能な畳み込み操作の一般的な視点から検討する。
我々はGCNとGATが実際に特定の深さ分離可能な畳み込み操作を行うことを示す。
- 参考スコア(独自算出の注目度): 13.052892923630687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have been widely demonstrated their
powerful ability in graph data representation and learning. Existing graph
convolution layers are mainly designed based on graph signal processing and
transform aspect which usually suffer from some limitations, such as
over-smoothing, over-squashing and non-robustness, etc. As we all know that
Convolution Neural Networks (CNNs) have received great success in many computer
vision and machine learning. One main aspect is that CNNs leverage many
learnable convolution filters (kernels) to obtain rich feature descriptors and
thus can have high capacity to encode complex patterns in visual data analysis.
Also, CNNs are flexible in designing their network architecture, such as
MobileNet, ResNet, Xception, etc. Therefore, it is natural to arise a question:
can we design graph convolutional layer as flexibly as that in CNNs?
Innovatively, in this paper, we consider connecting GCNs with CNNs deeply from
a general perspective of depthwise separable convolution operation.
Specifically, we show that GCN and GAT indeed perform some specific depthwise
separable convolution operations. This novel interpretation enables us to
better understand the connections between GCNs (GCN, GAT) and CNNs and further
inspires us to design more Unified GCNs (UGCNs). As two showcases, we implement
two UGCNs, i.e., Separable UGCN (S-UGCN) and General UGCN (G-UGCN) for graph
data representation and learning. Promising experiments on several graph
representation benchmarks demonstrate the effectiveness and advantages of the
proposed UGCNs.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、グラフデータの表現と学習において、その強力な能力を広く実証している。
既存のグラフ畳み込み層は、主にグラフ信号処理と変換の側面に基づいて設計されている。
誰もが知っているように、畳み込みニューラルネットワーク(CNN)は多くのコンピュータビジョンと機械学習で大きな成功を収めています。
CNNは、多くの学習可能な畳み込みフィルタ(カーネル)を利用してリッチな特徴記述子を得るため、視覚データ解析における複雑なパターンをエンコードする能力が高い。
また、CNNはMobileNet、ResNet、Xceptionといったネットワークアーキテクチャの設計にも柔軟です。
グラフ畳み込み層をCNNのように柔軟に設計することはできるだろうか?
本稿では,GCNとCNNの相互接続について,深い分離可能な畳み込み操作の一般的な視点から検討する。
具体的には,GCN と GAT が特定の深さ分離可能な畳み込み操作を行うことを示す。
この斬新な解釈により、GCN(GCN, GAT)とCNN(CNN)の接続をよりよく理解することができ、さらに統一GCN(UGCN)の設計を促すことができます。
2つのショーケースとして、グラフデータ表現と学習のための分離可能なUGCN(S-UGCN)と一般UGCN(G-UGCN)という2つのUGCNを実装している。
いくつかのグラフ表現ベンチマークで実験を行い、提案したUGCNの有効性と利点を示した。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Graph Convolutional Networks for Hyperspectral Image Classification [36.174209668206146]
我々は、ハイパースペクトル(HS)画像分類の観点から、CNNとGCN(Graph Convolutional Network)について検討する。
我々は,大規模GCNをミニバッチ方式で訓練できる新しいミニバッチGCNを開発した。
我々のミニGCNは、ネットワークを再トレーニングすることなくサンプル外データを推測し、分類性能を向上させることができる。
論文 参考訳(メタデータ) (2020-08-06T05:01:25Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。