論文の概要: DeGLIF for Label Noise Robust Node Classification using GNNs
- arxiv url: http://arxiv.org/abs/2506.00244v1
- Date: Fri, 30 May 2025 21:20:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.577659
- Title: DeGLIF for Label Noise Robust Node Classification using GNNs
- Title(参考訳): GNNを用いたラベルノイズロバストノード分類のためのDeGLIF
- Authors: Pintu Kumar, Nandyala Hemachandra,
- Abstract要約: ノイズのあるラベル付きデータセットは、クリーンなラベル付きデータセットに比べて一般的に安価である。
DeGLIF:Left-One-Out Influence Functionを用いたグラフデータの復調手法を提案する。
- 参考スコア(独自算出の注目度): 0.2812395851874055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Noisy labelled datasets are generally inexpensive compared to clean labelled datasets, and the same is true for graph data. In this paper, we propose a denoising technique DeGLIF: Denoising Graph Data using Leave-One-Out Influence Function. DeGLIF uses a small set of clean data and the leave-one-out influence function to make label noise robust node-level prediction on graph data. Leave-one-out influence function approximates the change in the model parameters if a training point is removed from the training dataset. Recent advances propose a way to calculate the leave-one-out influence function for Graph Neural Networks (GNNs). We extend that recent work to estimate the change in validation loss, if a training node is removed from the training dataset. We use this estimate and a new theoretically motivated relabelling function to denoise the training dataset. We propose two DeGLIF variants to identify noisy nodes. Both these variants do not require any information about the noise model or the noise level in the dataset; DeGLIF also does not estimate these quantities. For one of these variants, we prove that the noisy points detected can indeed increase risk. We carry out detailed computational experiments on different datasets to show the effectiveness of DeGLIF. It achieves better accuracy than other baseline algorithms
- Abstract(参考訳): ノイズ付きラベル付きデータセットは、クリーンなラベル付きデータセットと比較して一般的に安価であり、グラフデータにも同様である。
本稿では,グラフデータをLeft-One-Out Influence Functionを用いてデノナイズするデノナイズ手法DeGLIFを提案する。
DeGLIFは、グラフデータ上でラベルノイズを堅牢にノードレベルの予測にするために、小さなクリーンなデータセットと、アウト・ワン・アウト・インフルエンス関数を使用する。
レリート・ワン・アウト・インフルエンス関数は、トレーニングデータセットからトレーニングポイントが削除された場合のモデルパラメータの変化を近似する。
近年,グラフニューラルネットワーク (GNN) の残余影響関数を計算する手法が提案されている。
トレーニングノードがトレーニングデータセットから削除された場合、検証損失の変化を見積もるために、最近の作業を拡張します。
我々はこの推定値と新たな理論的動機付けリラベリング関数を用いてトレーニングデータセットをノイズ化する。
ノイズノードを識別する2つのDeGLIF変種を提案する。
これらの変種はどちらも、データセットのノイズモデルやノイズレベルに関する情報を必要としない。
これらの変種のうちの1つについて、検出された雑音点が実際にリスクを増大させることができることを証明している。
我々は,DeGLIFの有効性を示すために,異なるデータセット上で詳細な計算実験を行う。
他のベースラインアルゴリズムよりも精度が高い
関連論文リスト
- Learn Beneficial Noise as Graph Augmentation [54.44813218411879]
本稿では,情報理論における雑音の有益効果を科学的に分析するPiNGDAを提案する。
我々は,事前定義された拡張値を持つ標準GCLが,点推定による有益雑音の推定に等価であることを証明した。
生成元はグラフトポロジとノード属性に対して有益な摂動を生成する方法を学ぶため、PiNGDAは既存の手法よりも信頼性が高い。
論文 参考訳(メタデータ) (2025-05-25T08:20:34Z) - Joint Graph Rewiring and Feature Denoising via Spectral Resonance [10.850726111343063]
雑音グラフを結合して再構成するアルゴリズムを提案する。
提案手法は, 実世界のノード分類タスクにおいて, 既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-08-13T20:16:11Z) - The Effectiveness of Curvature-Based Rewiring and the Role of Hyperparameters in GNNs Revisited [0.7373617024876725]
グラフニューラルネットワーク(GNN)におけるメッセージパッシングは支配的なパラダイムである
近年、データと計算グラフから入力グラフを切断し、メッセージパッシングを行うグラフリウィリング技術に力を入れている。
オーバーシャッシングは合成データセットで実証されているが、この研究では、曲率ベースのリワイアリングが現実のデータセットにもたらすパフォーマンス向上を再評価する。
論文 参考訳(メタデータ) (2024-07-12T16:03:58Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - On-the-fly Denoising for Data Augmentation in Natural Language
Understanding [101.46848743193358]
よりクリーンなオリジナルデータに基づいて訓練された有機教師モデルによって提供されるソフトな拡張ラベルから学習する,データ拡張のためのオンザフライデノケーション手法を提案する。
本手法は,一般的な拡張手法に適用でき,テキスト分類と質問応答の両タスクの性能を一貫して向上させることができる。
論文 参考訳(メタデータ) (2022-12-20T18:58:33Z) - Scalable Penalized Regression for Noise Detection in Learning with Noisy
Labels [44.79124350922491]
理論的に保証された雑音ラベル検出フレームワークを用いて,雑音ラベルを用いた学習のためのノイズデータの検出と除去を行う。
具体的には,ネットワーク特徴量と1ホットラベルの線形関係をモデル化するためのペナル化回帰を設計する。
多数のカテゴリやトレーニングデータを含むデータセットに対して,フレームワークをスケーラブルにするために,トレーニングセット全体を小片に分割する分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-15T11:09:58Z) - Influential Rank: A New Perspective of Post-training for Robust Model
against Noisy Labels [23.80449026013167]
本稿では,雑音ラベル(LNL)からポストトレーニングを通じて学習する新しい手法を提案する。
我々は、トレーニングされたモデルの過度な適合性を利用して、誤ラベルされたサンプルを識別する。
我々のポストトレーニングアプローチは、既存のLNL法と組み合わせることで大きなシナジーを生み出す。
論文 参考訳(メタデータ) (2021-06-14T08:04:18Z) - Generation and Analysis of Feature-Dependent Pseudo Noise for Training
Deep Neural Networks [0.0]
ノイズの多いラベル付きデータセット上でディープニューラルネットワーク(DNN)をトレーニングすることは難しい問題である。
そこで我々は,DNNのトレーニング予測を,真のラベル情報を保持するクリーンデータセット上で利用することにより,特徴依存型ノイズデータセットを作成するための直感的なアプローチを提案する。
我々は,Pseudoノイズデータセットが,異なる条件における特徴依存ノイズデータセットに類似していることを確認するために,いくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-22T19:15:26Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。