論文の概要: Structure-Aware Label Smoothing for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2112.00499v1
- Date: Wed, 1 Dec 2021 13:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 20:18:20.235977
- Title: Structure-Aware Label Smoothing for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための構造認識ラベル平滑化
- Authors: Yiwei Wang, Yujun Cai, Yuxuan Liang, Wei Wang, Henghui Ding, Muhao
Chen, Jing Tang, Bryan Hooi
- Abstract要約: ラベル分布を1ホットベクトルとして表現することは、ノード分類モデルのトレーニングにおいて一般的な方法である。
本稿では,一般的なノード分類モデルに対する拡張成分として,新しいSALS(textitStructure-Aware Label Smoothing)法を提案する。
- 参考スコア(独自算出の注目度): 39.97741949184259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representing a label distribution as a one-hot vector is a common practice in
training node classification models. However, the one-hot representation may
not adequately reflect the semantic characteristics of a node in different
classes, as some nodes may be semantically close to their neighbors in other
classes. It would cause over-confidence since the models are encouraged to
assign full probabilities when classifying every node. While training models
with label smoothing can ease this problem to some degree, it still fails to
capture the nodes' semantic characteristics implied by the graph structures. In
this work, we propose a novel SALS (\textit{Structure-Aware Label Smoothing})
method as an enhancement component to popular node classification models. SALS
leverages the graph structures to capture the semantic correlations between the
connected nodes and generate the structure-aware label distribution to replace
the original one-hot label vectors, thus improving the node classification
performance without inference costs. Extensive experiments on seven node
classification benchmark datasets reveal the effectiveness of our SALS on
improving both transductive and inductive node classification. Empirical
results show that SALS is superior to the label smoothing method and enhances
the node classification models to outperform the baseline methods.
- Abstract(参考訳): ラベル分布を1ホットベクトルとして表現することは、ノード分類モデルのトレーニングにおいて一般的な方法である。
しかし、一つのホットな表現は異なるクラス内のノードの意味的特性を十分に反映していないかもしれない。
モデルがすべてのノードを分類する際に完全な確率を割り当てることを奨励されるため、過信を引き起こす。
ラベルの平滑化によるトレーニングモデルはこの問題をある程度緩和することができるが、グラフ構造によってもたらされるノードのセマンティックな特徴を捉えられない。
本研究では,一般的なノード分類モデルに対する拡張成分として,新しいSALS(\textit{Structure-Aware Label Smoothing})法を提案する。
SALSはグラフ構造を利用して接続ノード間の意味的相関を捕捉し、構造対応ラベル分布を生成して元の1ホットラベルベクトルを置き換えることにより、推論コストなしでノード分類性能を向上させる。
7つのノード分類ベンチマークデータセットの大規模な実験により、帰納的ノード分類と帰納的ノード分類の改善におけるSALSの有効性が明らかとなった。
実験の結果,SALSはラベル平滑化法よりも優れており,ノード分類モデルがベースライン法より優れていることが示された。
関連論文リスト
- Posterior Label Smoothing for Node Classification [2.737276507021477]
本稿では,トランスダクティブノード分類タスクに対して,単純かつ効果的なラベル平滑化を提案する。
本研究では, ソフトラベルを設計し, 周辺ラベル分布を通じて対象ノードの局所的コンテキストをカプセル化する。
以下の分析結果から,大域的なラベル統計を後続計算に組み込むことが,ラベル平滑化の成功の鍵であることが判明した。
論文 参考訳(メタデータ) (2024-06-01T11:59:49Z) - Contrastive Meta-Learning for Few-shot Node Classification [54.36506013228169]
少ないショットノード分類は、限定されたラベル付きノードのみを参照としてグラフ上のノードのラベルを予測することを目的としている。
グラフ上にCOSMICという新しい対照的なメタラーニングフレームワークを2つの重要な設計で作成する。
論文 参考訳(メタデータ) (2023-06-27T02:22:45Z) - Leveraging Label Non-Uniformity for Node Classification in Graph Neural
Networks [33.84217145105558]
グラフニューラルネットワーク(GNN)を用いたノード分類において、典型的なモデルは各ノードで異なるクラスラベルに対してロジットを生成する。
本稿では,ロジットのソフトマックス分布と均一分布との間のワッサーシュタイン距離から導かれるラベル非均一性の鍵となる概念を紹介する。
理論的には、ラベルの非均一性がグラフ全体でどのように変化するかを分析し、モデルの性能向上に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-04-29T01:09:56Z) - Label-Enhanced Graph Neural Network for Semi-supervised Node
Classification [32.64730237473914]
グラフニューラルネットワーク(GNN)のためのラベル強化学習フレームワークを提案する。
まず、各ラベルをクラス内のノードの仮想センターとしてモデル化し、次にノードとラベルの両方の表現を共同で学習する。
提案手法は,同一クラスに属するノードの表現を円滑に行うだけでなく,ラベルセマンティクスをGNNの学習プロセスに明示的にエンコードする。
論文 参考訳(メタデータ) (2022-05-31T09:48:47Z) - Scalable and Adaptive Graph Neural Networks with Self-Label-Enhanced
training [1.2183405753834562]
大規模グラフにグラフニューラルネットワーク(gnn)を直接実装することは困難である。
スケーラブルで適応的なグラフニューラルネットワーク(SAGN)を提案する。
自己学習アプローチとラベル伝播を深く結合したsle(self-label-enhance)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-19T15:08:06Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Unifying Graph Convolutional Neural Networks and Label Propagation [73.82013612939507]
LPAとGCNの関係を特徴・ラベルの平滑化と特徴・ラベルの影響の2点の観点から検討した。
理論解析に基づいて,ノード分類のためのGCNとLCAを統一するエンドツーエンドモデルを提案する。
我々のモデルは、既存の特徴に基づく注目モデルよりもタスク指向のノードラベルに基づく学習注意重みと見なすこともできる。
論文 参考訳(メタデータ) (2020-02-17T03:23:13Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。