論文の概要: HC-GST: Heterophily-aware Distribution Consistency based Graph Self-training
- arxiv url: http://arxiv.org/abs/2407.17787v1
- Date: Thu, 25 Jul 2024 05:38:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:08:06.891833
- Title: HC-GST: Heterophily-aware Distribution Consistency based Graph Self-training
- Title(参考訳): HC-GST: Heterophily-Aware Distribution Consistency based Graph Self-training
- Authors: Fali Wang, Tianxiang Zhao, Junjie Xu, Suhang Wang,
- Abstract要約: 異種グラフ上での自己学習におけるホモフィリ比分布シフトを減少させる新しい問題について検討する。
そこで本研究では,ヘテロフィックな分散一貫性に基づくグラフ自己学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.289729624422773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph self-training (GST), which selects and assigns pseudo-labels to unlabeled nodes, is popular for tackling label sparsity in graphs. However, recent study on homophily graphs show that GST methods could introduce and amplify distribution shift between training and test nodes as they tend to assign pseudo-labels to nodes they are good at. As GNNs typically perform better on homophilic nodes, there could be potential shifts towards homophilic pseudo-nodes, which is underexplored. Our preliminary experiments on heterophilic graphs verify that these methods can cause shifts in homophily ratio distributions, leading to \textit{training bias} that improves performance on homophilic nodes while degrading it on heterophilic ones. Therefore, we study a novel problem of reducing homophily ratio distribution shifts during self-training on heterophilic graphs. A key challenge is the accurate calculation of homophily ratios and their distributions without extensive labeled data. To tackle them, we propose a novel Heterophily-aware Distribution Consistency-based Graph Self-Training (HC-GST) framework, which estimates homophily ratios using soft labels and optimizes a selection vector to align pseudo-nodes with the global homophily ratio distribution. Extensive experiments on both homophilic and heterophilic graphs show that HC-GST effectively reduces training bias and enhances self-training performance.
- Abstract(参考訳): ラベルのないノードに擬似ラベルを選択して割り当てるグラフ自己学習(GST)は、グラフ内のラベルの空間性に対処するために人気がある。
しかし、近年のホモフィリグラフの研究により、GST法は訓練ノードとテストノード間の分散シフトを、彼らが得意とするノードに擬似ラベルを割り当てる傾向にあることを示す。
GNNは一般にホモ親和性ノードにおいてより良い性能を示すため、探索されていないホモ親和性擬似ノードへの潜在的なシフトが存在する可能性がある。
ヘテロフィルグラフに関する予備実験では、これらの手法がホモフィル比分布の変化を引き起こすことを検証し、ヘテロフィル比分布を劣化させながら、ホモフィルノードの性能を向上させるための「textit{training bias}」を導いた。
そこで本研究では, 異種グラフ上での自己学習において, ホモフィリ比分布シフトを減少させる新たな問題について検討する。
鍵となる課題は、広範囲なラベル付きデータを持たないホモフィリー比とその分布の正確な計算である。
そこで本研究では,ソフトラベルを用いたホモフィリー比を推定し,擬似ノードをグローバルなホモフィリー比分布と整合させる選択ベクトルを最適化する,ヘテロフィリー対応配向型グラフ自己学習(HC-GST)フレームワークを提案する。
HC-GSTはトレーニングバイアスを効果的に低減し、自己学習性能を向上させる。
関連論文リスト
- Leveraging Invariant Principle for Heterophilic Graph Structure Distribution Shifts [42.77503881972965]
Heterophilic Graph Neural Networks (HGNN) は、グラフ上の半教師付き学習タスクに対して有望な結果を示している。
この構造差や分布シフトを扱うために、異種グラフ上の不変ノード表現を学習する方法は、まだ解明されていない。
異種情報を組み込んだ不変ノード表現を生成可能なフレームワークである textbfHEI を提案する。
論文 参考訳(メタデータ) (2024-08-18T14:10:34Z) - The Heterophilic Graph Learning Handbook: Benchmarks, Models, Theoretical Analysis, Applications and Challenges [101.83124435649358]
ホモフィリ原理では、同じラベルや類似属性を持つieノードが接続される可能性が高い。
最近の研究で、GNNのパフォーマンスとNNのパフォーマンスが満足できない非自明なデータセットが特定されている。
論文 参考訳(メタデータ) (2024-07-12T18:04:32Z) - Generation is better than Modification: Combating High Class Homophily Variance in Graph Anomaly Detection [51.11833609431406]
異なるクラス間のホモフィリー分布の差は、ホモフィリックグラフやヘテロフィリックグラフよりも著しく大きい。
我々は、この現象を定量的に記述した、クラスホモフィリーバリアンスと呼ばれる新しい計量を導入する。
その影響を軽減するために,ホモフィリーエッジ生成グラフニューラルネットワーク(HedGe)と呼ばれる新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T14:26:53Z) - Discovering Invariant Neighborhood Patterns for Heterophilic Graphs [32.315495035666636]
Invariant Neighborhood Pattern Learning (INPL) を提案する。
我々は,INPLが非親和性グラフ上での学習において,最先端の性能を達成できることを実証した。
論文 参考訳(メタデータ) (2024-03-15T02:25:45Z) - Demystifying Structural Disparity in Graph Neural Networks: Can One Size
Fit All? [61.35457647107439]
ほとんどの実世界のホモフィルグラフとヘテロフィルグラフは、ホモフィルグラフとヘテロフィルグラフの両方の構造パターンの混合ノードから構成される。
ノード分類におけるグラフニューラルネットワーク (GNN) は, 一般にホモ親和性ノード上で良好に機能することを示す。
次に、GNNに対する厳密で非I.d PAC-Bayesian一般化を提案し、性能格差の理由を明らかにした。
論文 参考訳(メタデータ) (2023-06-02T07:46:20Z) - Graph Contrastive Learning under Heterophily via Graph Filters [51.46061703680498]
グラフコントラスト学習(CL)法は,GNNエンコーダを用いて得られる拡張ノード表現の類似性を最大化することにより,ノード表現を自己指導的に学習する。
本研究では,ヘテロフィリー下でのグラフ表現学習に有効なグラフCL法であるHLCLを提案する。
我々の広範な実験により、HLCLはヘテロフィリーのベンチマークデータセットや大規模実世界のグラフで最先端のグラフCL法を最大7%上回り、ヘテロフィリーのデータセットでグラフ教師あり学習法を最大10%上回ります。
論文 参考訳(メタデータ) (2023-03-11T08:32:39Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Restructuring Graph for Higher Homophily via Adaptive Spectral Clustering [7.223313563198697]
グラフ再構成手法は, 好ましくないグラフに対して, 6つの古典的GNNの性能を平均25%向上させることができることを示す。
強化されたパフォーマンスは最先端のメソッドに匹敵する。
論文 参考訳(メタデータ) (2022-06-06T06:38:53Z) - Simple Truncated SVD based Model for Node Classification on Heterophilic
Graphs [0.5309004257911242]
グラフニューラルネットワーク(GNN)は、強いホモフィリーを示すグラフに対して優れた性能を示す。
近年のアプローチでは、この制限に対処するため、アダプティブグラフフィルタなどのアグリゲーションスキームの変更が一般的である。
本稿では, トポロジ構造とノード特徴のトランク付き特異値分解(TSVD)を利用した簡易な代替手法を提案する。
論文 参考訳(メタデータ) (2021-06-24T07:48:18Z) - Is Homophily a Necessity for Graph Neural Networks? [50.959340355849896]
グラフニューラルネットワーク(GNN)は、多数のグラフベースの機械学習タスクに適した学習表現において大きな進歩を見せている。
GNNはホモフィリーな仮定によりうまく機能し、異種ノードが接続する異種グラフへの一般化に失敗したと広く信じられている。
最近の研究は、このような不均一な制限を克服する新しいアーキテクチャを設計し、ベースライン性能の低さと、この概念の証拠として、いくつかの異種グラフベンチマークデータセットに対するアーキテクチャの改善を引用している。
我々の実験では、標準グラフ畳み込みネットワーク(GCN)が実際よりも優れた性能を実現できることを実証的に見出した。
論文 参考訳(メタデータ) (2021-06-11T02:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。