論文の概要: OrthoReg: Improving Graph-regularized MLPs via Orthogonality
Regularization
- arxiv url: http://arxiv.org/abs/2302.00109v1
- Date: Tue, 31 Jan 2023 21:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 18:19:37.763134
- Title: OrthoReg: Improving Graph-regularized MLPs via Orthogonality
Regularization
- Title(参考訳): OrthoReg: 直交正規化によるグラフ正規化MLPの改善
- Authors: Hengrui Zhang, Shen Wang, Vassilis N. Ioannidis, Soji Adeshina, Jiani
Zhang, Xiao Qin, Christos Faloutsos, Da Zheng, George Karypis, Philip S. Yu
- Abstract要約: グラフニューラルネットワーク(GNN)は現在、グラフ構造データのモデリングにおいて支配的である。
グラフ正規化ネットワーク(GR-MLP)はグラフ構造情報をモデル重みに暗黙的に注入するが、その性能はほとんどのタスクにおいてGNNとほとんど一致しない。
GR-MLPは,最大数個の固有値が埋め込み空間を支配する現象である次元崩壊に苦しむことを示す。
次元崩壊問題を緩和する新しいGR-MLPモデルであるOrthoRegを提案する。
- 参考スコア(独自算出の注目度): 66.30021126251725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are currently dominating in modeling
graph-structure data, while their high reliance on graph structure for
inference significantly impedes them from widespread applications. By contrast,
Graph-regularized MLPs (GR-MLPs) implicitly inject the graph structure
information into model weights, while their performance can hardly match that
of GNNs in most tasks. This motivates us to study the causes of the limited
performance of GR-MLPs. In this paper, we first demonstrate that node
embeddings learned from conventional GR-MLPs suffer from dimensional collapse,
a phenomenon in which the largest a few eigenvalues dominate the embedding
space, through empirical observations and theoretical analysis. As a result,
the expressive power of the learned node representations is constrained. We
further propose OrthoReg, a novel GR-MLP model to mitigate the dimensional
collapse issue. Through a soft regularization loss on the correlation matrix of
node embeddings, OrthoReg explicitly encourages orthogonal node representations
and thus can naturally avoid dimensionally collapsed representations.
Experiments on traditional transductive semi-supervised classification tasks
and inductive node classification for cold-start scenarios demonstrate its
effectiveness and superiority.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は現在、グラフ構造データのモデリングにおいて支配的だが、推論のためのグラフ構造への高い依存は、広範な応用を妨げる。
対照的に、グラフ正規化MLP(GR-MLP)はグラフ構造情報を暗黙的にモデル重みに注入するが、その性能はほとんどのタスクにおいてGNNとほとんど一致しない。
これはGR-MLPの限られた性能の原因を研究する動機となっている。
本稿では,従来のGR-MLPから学習したノード埋め込みが,経験的観察と理論的解析により,最大数個の固有値が埋め込み空間を支配している現象である次元崩壊に苦しむことを示す。
その結果、学習ノード表現の表現力は制限される。
さらに,次元崩壊問題を緩和する新しいGR-MLPモデルOrthoRegを提案する。
ノード埋め込みの相関行列上のソフト正規化損失により、OrthoRegは直交ノード表現を明示的に奨励し、次元的に崩壊した表現を自然に回避できる。
冷間開始シナリオにおける従来の半教師付き半教師付き分類タスクと帰納ノード分類の実験は、その効果と優位性を示している。
関連論文リスト
- Self-Supervised Conditional Distribution Learning on Graphs [15.730933577970687]
本稿では,従来の特徴に対して,弱い特徴と強く拡張された特徴の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
このアライメントは、グラフ構造化データ拡張による本質的な意味情報の破壊のリスクを効果的に低減する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - RawlsGCN: Towards Rawlsian Difference Principle on Graph Convolutional
Network [102.27090022283208]
グラフ畳み込みネットワーク(GCN)は多くの現実世界のアプリケーションにおいて重要な役割を担っている。
GCNはしばしばノードの次数に対する性能の相違を示し、結果として低次ノードの予測精度が悪化する。
我々は、Rawlsian差分原理の観点から、GCNの次数関連性能格差を緩和する問題を定式化する。
論文 参考訳(メタデータ) (2022-02-28T05:07:57Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z) - Graph-MLP: Node Classification without Message Passing in Graph [28.604893350871777]
グラフニューラルネットワーク(GNN)は、非ユークリッド構造データを扱う上での有効性を実証している。
最近の研究は主に強力なメッセージパッシングモジュールに焦点を当てているが、この記事では、メッセージパッシングモジュールは必要ないことを示す。
本稿では,グラフ構造を利用した教師信号を用いた,純粋な多層パーセプトロンベースのGraph-MLPを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。