論文の概要: Deep Insights into Noisy Pseudo Labeling on Graph Data
- arxiv url: http://arxiv.org/abs/2310.01634v1
- Date: Mon, 2 Oct 2023 20:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 18:47:24.782721
- Title: Deep Insights into Noisy Pseudo Labeling on Graph Data
- Title(参考訳): グラフデータに基づくノイズの多い擬似ラベルへの深い洞察
- Authors: Botao Wang, Jia Li, Yang Liu, Jiashun Cheng, Yu Rong, Wenjia Wang,
Fugee Tsung
- Abstract要約: Pseudo labeling(PL)は、トレーニングプロセス中に潜在的なサンプルを自己アノテーションすることでラベル付きデータセットを拡大する戦略である。
不適切なPLは、特にノイズが伝播可能なグラフデータにおいて、性能劣化をもたらす可能性がある。
本稿では,高い信頼性と多視点整合性を有するサンプルを疑似ラベル付けする,慎重な擬似ラベル付け手法を提案する。
- 参考スコア(独自算出の注目度): 47.93475893403808
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Pseudo labeling (PL) is a wide-applied strategy to enlarge the labeled
dataset by self-annotating the potential samples during the training process.
Several works have shown that it can improve the graph learning model
performance in general. However, we notice that the incorrect labels can be
fatal to the graph training process. Inappropriate PL may result in the
performance degrading, especially on graph data where the noise can propagate.
Surprisingly, the corresponding error is seldom theoretically analyzed in the
literature. In this paper, we aim to give deep insights of PL on graph learning
models. We first present the error analysis of PL strategy by showing that the
error is bounded by the confidence of PL threshold and consistency of
multi-view prediction. Then, we theoretically illustrate the effect of PL on
convergence property. Based on the analysis, we propose a cautious pseudo
labeling methodology in which we pseudo label the samples with highest
confidence and multi-view consistency. Finally, extensive experiments
demonstrate that the proposed strategy improves graph learning process and
outperforms other PL strategies on link prediction and node classification
tasks.
- Abstract(参考訳): Pseudo labeling (PL) は、トレーニングプロセス中に潜在的なサンプルを自己アノテーションすることでラベル付きデータセットを拡大するための幅広い戦略である。
いくつかの研究により、グラフ学習モデルの性能を全般的に改善できることが示されている。
しかし,グラフ学習プロセスでは,誤ラベルが致命的になる可能性がある。
不適切なPLは、特にノイズが伝播可能なグラフデータにおいて、性能劣化をもたらす可能性がある。
驚いたことに、対応する誤りは理論上はほとんど分析されない。
本稿では,グラフ学習モデルにおけるPLの深い洞察を提供することを目的とする。
まず,PL の閾値の信頼度と多視点予測の整合性によって誤差が有界であることを示し,PL 戦略の誤差解析を行う。
次に,PLが収束特性に及ぼす影響を理論的に説明する。
そこで本研究では,高い信頼性と多視点整合性を有するサンプルを疑似ラベル付けする,慎重な擬似ラベル付け手法を提案する。
最後に,提案手法がグラフ学習プロセスを改善し,リンク予測やノード分類タスクにおいて他のPL戦略より優れていることを示す。
関連論文リスト
- Graph Partial Label Learning with Potential Cause Discovering [24.659793052786814]
グラフネットワーク(GNN)は、グラフ表現学習がもたらす課題に対処する可能性について、広く注目を集めている。
グラフ固有の複雑さと相互接続性のため、GNNをトレーニングするためのグラフデータを正確にアノテートすることは極めて困難である。
論文 参考訳(メタデータ) (2024-03-18T03:56:34Z) - PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - Towards Self-Interpretable Graph-Level Anomaly Detection [73.1152604947837]
グラフレベルの異常検出(GLAD)は、コレクションの大多数と比べて顕著な相違を示すグラフを識別することを目的としている。
本稿では,異常なグラフを検出し,同時に情報的説明を生成する自己解釈グラフaNomaly dETectionモデル(SIGNET)を提案する。
論文 参考訳(メタデータ) (2023-10-25T10:10:07Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Self-Supervised Representation Learning via Latent Graph Prediction [41.64774038444827]
グラフニューラルネットワークの自己教師付き学習(SSL)は、ラベルのないデータを活用するための有望な方法として浮上している。
ラグラフ(LaGraph)は、遅延グラフ予測に基づく理論的に基礎付けられた予測型SSLフレームワークである。
実験結果から,LaGraphの性能向上と,グラフレベルとノードレベルの両方のタスクにおけるトレーニングサンプルサイズ削減に対する堅牢性を示す。
論文 参考訳(メタデータ) (2022-02-16T21:10:33Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。