論文の概要: RawlsGCN: Towards Rawlsian Difference Principle on Graph Convolutional
Network
- arxiv url: http://arxiv.org/abs/2202.13547v1
- Date: Mon, 28 Feb 2022 05:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 07:28:00.420260
- Title: RawlsGCN: Towards Rawlsian Difference Principle on Graph Convolutional
Network
- Title(参考訳): RawlsGCN: グラフ畳み込みネットワークにおけるRawlsian差分原理を目指して
- Authors: Jian Kang, Yan Zhu, Yinglong Xia, Jiebo Luo, Hanghang Tong
- Abstract要約: グラフ畳み込みネットワーク(GCN)は多くの現実世界のアプリケーションにおいて重要な役割を担っている。
GCNはしばしばノードの次数に対する性能の相違を示し、結果として低次ノードの予測精度が悪化する。
我々は、Rawlsian差分原理の観点から、GCNの次数関連性能格差を緩和する問題を定式化する。
- 参考スコア(独自算出の注目度): 102.27090022283208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Convolutional Network (GCN) plays pivotal roles in many real-world
applications. Despite the successes of GCN deployment, GCN often exhibits
performance disparity with respect to node degrees, resulting in worse
predictive accuracy for low-degree nodes. We formulate the problem of
mitigating the degree-related performance disparity in GCN from the perspective
of the Rawlsian difference principle, which is originated from the theory of
distributive justice. Mathematically, we aim to balance the utility between
low-degree nodes and high-degree nodes while minimizing the task-specific loss.
Specifically, we reveal the root cause of this degree-related unfairness by
analyzing the gradients of weight matrices in GCN. Guided by the gradients of
weight matrices, we further propose a pre-processing method RawlsGCN-Graph and
an in-processing method RawlsGCN-Grad that achieves fair predictive accuracy in
low-degree nodes without modification on the GCN architecture or introduction
of additional parameters. Extensive experiments on real-world graphs
demonstrate the effectiveness of our proposed RawlsGCN methods in significantly
reducing degree-related bias while retaining comparable overall performance.
- Abstract(参考訳): グラフ畳み込みネットワーク(gcn)は多くの実世界のアプリケーションで重要な役割を果たす。
gcnデプロイメントの成功にもかかわらず、gcnはしばしばノードの次数に対するパフォーマンスの差を示し、低次ノードの予測精度は低下する。
我々は,分布的正義の理論を起源とするrawlsian difference principleの観点から,gcnの次数関連の性能格差を緩和する問題を定式化する。
数学的には、タスク固有の損失を最小限に抑えながら、低次ノードと高次ノード間のユーティリティのバランスを図る。
具体的には,GCNの重量行列の勾配を解析することにより,この度合い関係の不公平性の根本原因を明らかにする。
重み行列の勾配を導いた前処理法RawlsGCN-Graphと内処理法RawlsGCN-Gradは,GCNアーキテクチャの変更や追加パラメータの導入なしに,低次ノードの正確な予測精度を実現する。
実世界のグラフに対する大規模な実験により,提案したRawlsGCN法の有効性が実証された。
関連論文リスト
- OrthoReg: Improving Graph-regularized MLPs via Orthogonality
Regularization [66.30021126251725]
グラフニューラルネットワーク(GNN)は現在、グラフ構造データのモデリングにおいて支配的である。
グラフ正規化ネットワーク(GR-MLP)はグラフ構造情報をモデル重みに暗黙的に注入するが、その性能はほとんどのタスクにおいてGNNとほとんど一致しない。
GR-MLPは,最大数個の固有値が埋め込み空間を支配する現象である次元崩壊に苦しむことを示す。
次元崩壊問題を緩和する新しいGR-MLPモデルであるOrthoRegを提案する。
論文 参考訳(メタデータ) (2023-01-31T21:20:48Z) - Uncovering the Structural Fairness in Graph Contrastive Learning [87.65091052291544]
グラフコントラスト学習(GCL)は、ノード表現を学習するための有望な自己教師型アプローチとして登場した。
GCL法で得られた表現は,GCN法で学習した表現よりも既に公平であることを示す。
我々は、低次ノードと高次ノードに異なる戦略を適用し、GRAph contrastive learning for Degree bias (GRADE)と呼ばれるグラフ拡張手法を考案した。
論文 参考訳(メタデータ) (2022-10-06T15:58:25Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Graph Partner Neural Networks for Semi-Supervised Learning on Graphs [16.489177915147785]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データを処理するのに強力であり、ノード分類、リンク予測、グラフ分類などのタスクで最先端のパフォーマンスを達成した。
グラフ畳み込み処理を繰り返した後にノードの表現が区別できない傾向にあるため、深いGCNが過度に滑らかな問題に悩まされることは避けられない。
本稿では,非パラメータ化GCNとパラメータ共有スキームを組み合わせたグラフパートナーニューラルネットワーク(GPNN)を提案する。
論文 参考訳(メタデータ) (2021-10-18T10:56:56Z) - Revisiting Graph Convolutional Network on Semi-Supervised Node
Classification from an Optimization Perspective [10.178145000390671]
グラフ畳み込みネットワーク(GCN)は、様々なグラフベースのタスクにおいて有望な性能を達成した。
しかし、より多くのレイヤを積み重ねる際には、過剰なスムーシングに悩まされる。
本稿では,この観測を定量的に研究し,より深いGCNに対する新たな洞察を開拓する。
論文 参考訳(メタデータ) (2020-09-24T03:36:43Z) - Investigating and Mitigating Degree-Related Biases in Graph
Convolutional Networks [62.8504260693664]
グラフ畳み込みネットワーク(GCN)は、グラフ上の半教師付き学習タスクに対して有望な結果を示す。
本稿では,ノード次数分布に関するGCNを解析する。
本稿では,GCNの次数バイアスを緩和する自己監督型DegreeSpecific GCN(SL-DSGC)を開発した。
論文 参考訳(メタデータ) (2020-06-28T16:26:47Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。