論文の概要: Graph Construction using Principal Axis Trees for Simple Graph
Convolution
- arxiv url: http://arxiv.org/abs/2302.12000v1
- Date: Wed, 22 Feb 2023 12:02:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 15:05:55.443061
- Title: Graph Construction using Principal Axis Trees for Simple Graph
Convolution
- Title(参考訳): 簡易グラフ畳み込みのための主軸木を用いたグラフ構築
- Authors: Mashaan Alshammari, John Stavrakakis, Adel F. Ahmed, Masahiro
Takatsuka
- Abstract要約: 機能マトリックスの$X$に加えて、GNNは機能伝搬を実行するためにアジャケーシマトリックスの$A$を必要とします。
本稿では,教師なし情報と教師なし情報を用いて隣接行列$A$を構成するグラフ構築手法を提案する。
このグラフ構築スキームは、(1)グラフ畳み込みネットワーク(GCN)と(2)単純なグラフ畳み込み(SGC)の2つのよく知られたGNNでテストされた。
- 参考スコア(独自算出の注目度): 1.376408511310322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are increasingly becoming the favorite method
for graph learning. They exploit the semi-supervised nature of deep learning,
and they bypass computational bottlenecks associated with traditional graph
learning methods. In addition to the feature matrix $X$, GNNs need an adjacency
matrix $A$ to perform feature propagation. In many cases the adjacency matrix
$A$ is missing. We introduce a graph construction scheme that construct the
adjacency matrix $A$ using unsupervised and supervised information.
Unsupervised information characterize the neighborhood around points. We used
Principal Axis trees (PA-trees) as a source of unsupervised information, where
we create edges between points falling onto the same leaf node. For supervised
information, we used the concept of penalty and intrinsic graphs. A penalty
graph connects points with different class labels, whereas intrinsic graph
connects points with the same class label. We used the penalty and intrinsic
graphs to remove or add edges to the graph constructed via PA-tree. This graph
construction scheme was tested on two well-known GNNs: 1) Graph Convolutional
Network (GCN) and 2) Simple Graph Convolution (SGC). The experiments show that
it is better to use SGC because it is faster and delivers better or the same
results as GCN. We also test the effect of oversmoothing on both GCN and SGC.
We found out that the level of smoothing has to be selected carefully for SGC
to avoid oversmoothing.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)がグラフ学習のお気に入りの方法になりつつある。
深層学習の半教師付き性質を利用して、従来のグラフ学習手法に関連する計算ボトルネックを回避している。
特徴行列 $x$ に加えて、gnn は特徴伝達を実行するために隣接行列 $a$ が必要である。
多くの場合、隣接行列の$A$が欠落している。
我々は,教師なし情報と教師なし情報を用いて隣接行列 $a$ を構成するグラフ構築スキームを提案する。
監督されていない情報は、ポイント周辺を特徴付ける。
我々は教師なし情報のソースとして主軸木(PA-trees)を使用し、そこで同じ葉ノードに落下する点間のエッジを作成しました。
教師付き情報にはペナルティグラフと本質グラフという概念を用いた。
ペナルティグラフは異なるクラスラベルでポイントを接続するが、固有のグラフは同じクラスラベルでポイントを接続する。
PA木を用いて構築したグラフにエッジを削除または付加するために,ペナルティグラフと本質グラフを使用した。
このグラフ構築スキームは2つのよく知られたGNNでテストされた。
1)グラフ畳み込みネットワーク(GCN)と
2) 単純なグラフ畳み込み(SGC)。
実験の結果,より高速でGCNと同等あるいは同等の結果が得られるため,SGCを使用する方がよいことがわかった。
また,GCNおよびSGCに対するオーバースムーシングの効果についても検討した。
過度なスムース化を避けるためには,SGCに対してスムース化のレベルを慎重に選択する必要があることがわかった。
関連論文リスト
- Learning on Large Graphs using Intersecting Communities [13.053266613831447]
MPNNは、各ノードの隣人からのメッセージを集約することで、入力グラフ内の各ノードの表現を反復的に更新する。
MPNNは、あまりスパースではないため、すぐに大きなグラフの禁止になるかもしれない。
本稿では,入力グラフを交差するコミュニティグラフ (ICG) として近似することを提案する。
論文 参考訳(メタデータ) (2024-05-31T09:26:26Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - From Cluster Assumption to Graph Convolution: Graph-based Semi-Supervised Learning Revisited [51.24526202984846]
グラフベースの半教師付き学習(GSSL)は、長い間ホットな研究トピックだった。
グラフ畳み込みネットワーク (GCN) は, 有望な性能を示す主要な技術となっている。
論文 参考訳(メタデータ) (2023-09-24T10:10:21Z) - Random Projection Forest Initialization for Graph Convolutional Networks [0.6554326244334866]
グラフ畳み込みネットワーク(GCN)は、グラフのような非構造化データにディープラーニングを拡張するための大きなステップであった。
ランダムプロジェクションフォレスト(rpForest)を用いたグラフの構築とGCNの初期化を行う新しい方法を提案する。
rpForestを使えば、さまざまな重要度を示すエッジに様々な重みを割り当てることができ、学習が促進されます。
論文 参考訳(メタデータ) (2023-02-22T11:49:19Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - GLAM: Graph Learning by Modeling Affinity to Labeled Nodes for Graph
Neural Networks [0.0]
グラフが存在しない場合の半教師付きグラフ学習法を提案する。
教師なしkNNグラフと教師付きラベル親和性グラフの凸結合としてグラフを学習する。
私たちの実験では、このアプローチは最先端のグラフ学習手法よりもシンプルで(最大1.5%)、トレーニングが(最大70倍)簡単で、パフォーマンスが向上することを示唆している。
論文 参考訳(メタデータ) (2021-02-20T17:56:52Z) - Inverse Graph Identification: Can We Identify Node Labels Given Graph
Labels? [89.13567439679709]
グラフ識別(GI)は、グラフ学習において長い間研究されており、特定の応用において不可欠である。
本稿では,逆グラフ識別(Inverse Graph Identification, IGI)と呼ばれる新しい問題を定義する。
本稿では,グラフアテンションネットワーク(GAT)を用いたノードレベルのメッセージパッシング処理を,GIのプロトコルの下でシンプルかつ効果的に行う方法を提案する。
論文 参考訳(メタデータ) (2020-07-12T12:06:17Z) - Data Augmentation View on Graph Convolutional Network and the Proposal
of Monte Carlo Graph Learning [51.03995934179918]
従来の理解よりも透明性の高いデータ拡張を導入します。
そこで我々はモンテカルログラフ学習(MCGL)という新しいグラフ学習パラダイムを提案する。
MCGLの耐雑音性は、ノイズグラフ上のGCNよりも弱いことを示す。
論文 参考訳(メタデータ) (2020-06-23T15:25:05Z) - TreeRNN: Topology-Preserving Deep GraphEmbedding and Learning [24.04035265351755]
本研究では,グラフを木に転送する手法について検討し,特徴統合を局所的からグローバル的へと導くための明確な順序を学習する。
グラフツリー画像からパターンを最もよく学習するために,2次元RNNアーキテクチャであるTreeRNNを提案する。
論文 参考訳(メタデータ) (2020-06-21T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。