論文の概要: Resist Label Noise with PGM for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2311.02116v1
- Date: Fri, 3 Nov 2023 02:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 19:21:49.993101
- Title: Resist Label Noise with PGM for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのPGMを用いたレジストラベルノイズ
- Authors: Qingqing Ge, Jianxiang Yu, Zeyuan Zhao and Xiang Li
- Abstract要約: 本稿では,新しいグラフィカル確率モデル (PGM) に基づくフレームワーク LNP を提案する。
ノイズの多いラベルセットとクリーンなラベルセットが与えられた場合、私たちのゴールはクリーンなセット内のラベルの可能性を最大化することです。
LNPは高騒音環境下でのインスピレーション性能に寄与することを示す。
- 参考スコア(独自算出の注目度): 4.566850249315913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While robust graph neural networks (GNNs) have been widely studied for graph
perturbation and attack, those for label noise have received significantly less
attention. Most existing methods heavily rely on the label smoothness
assumption to correct noisy labels, which adversely affects their performance
on heterophilous graphs. Further, they generally perform poorly in high
noise-rate scenarios. To address these problems, in this paper, we propose a
novel probabilistic graphical model (PGM) based framework LNP. Given a noisy
label set and a clean label set, our goal is to maximize the likelihood of
labels in the clean set. We first present LNP-v1, which generates clean labels
based on graphs only in the Bayesian network. To further leverage the
information of clean labels in the noisy label set, we put forward LNP-v2,
which incorporates the noisy label set into the Bayesian network to generate
clean labels. The generative process can then be used to predict labels for
unlabeled nodes. We conduct extensive experiments to show the robustness of LNP
on varying noise types and rates, and also on graphs with different
heterophilies. In particular, we show that LNP can lead to inspiring
performance in high noise-rate situations.
- Abstract(参考訳): グラフ摂動とアタックのために頑健なグラフニューラルネットワーク(GNN)が広く研究されているが、ラベルノイズに対するニューラルネットワークはそれほど注目されていない。
既存の手法の多くはノイズラベルを修正するためにラベルの滑らかさの仮定に大きく依存しており、これは異種グラフのパフォーマンスに悪影響を及ぼす。
さらに、一般的には高いノイズレートのシナリオでは性能が劣る。
本稿では,これらの問題に対処するために,新しい確率的グラフィカルモデル (pgm) ベースのフレームワーク lnp を提案する。
ノイズの多いラベルセットとクリーンなラベルセットを考えると、私たちの目標はクリーンセット内のラベルの可能性の最大化です。
まず,ベイズネットワーク内でのみグラフに基づくクリーンラベルを生成するlpp-v1を提案する。
ノイズラベルセットにおけるクリーンラベルの情報をさらに活用するために,ベイジアンネットワークにノイズラベルセットを組み込んでクリーンラベルを生成するLNP-v2を提案する。
生成プロセスは、ラベルのないノードのラベルを予測するのに使うことができる。
我々は、様々なノイズタイプとレート、および異なる異性体を持つグラフに対するLNPの堅牢性を示すための広範な実験を行う。
特に,LNPは高騒音環境下での性能向上につながる可能性が示唆された。
関連論文リスト
- Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Resurrecting Label Propagation for Graphs with Heterophily and Label Noise [40.11022005996222]
ラベルノイズは、ディープニューラルネットワークの一般化能力を著しく低下させるため、大規模なデータセットでは一般的な課題である。
任意のヘテロフィリーの文脈におけるグラフラベルノイズについて検討し、ノイズラベルの修正とラベルの割り当てを未ラベルノードで行うことを目的とした。
R2LP$は、3つのステップからなる反復アルゴリズムである。(1) グラフを再構成してホモフィリプロパティを復元し、(2) ラベルの伝搬を利用してノイズラベルを修正し、(3) 信頼度の高いラベルを選択して次のイテレーションに保持する。
論文 参考訳(メタデータ) (2023-10-25T11:28:26Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning [113.8799653759137]
我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:26:23Z) - Robust Training of Graph Neural Networks via Noise Governance [27.767913371777247]
グラフニューラルネットワーク(GNN)は、半教師付き学習のモデルとして広く使われている。
本稿では,グラフノード上のラベルがうるさいだけでなく,難易度も低い重要なシナリオについて考察する。
本稿では,ラベルノイズを明示的に制御する学習により,ロバスト性を向上する新しいRTGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T09:25:32Z) - Instance-dependent Label-noise Learning under a Structural Causal Model [92.76400590283448]
ラベルノイズはディープラーニングアルゴリズムの性能を劣化させる。
構造因果モデルを活用することにより,実例依存型ラベルノイズ学習のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T10:42:54Z) - NRGNN: Learning a Label Noise-Resistant Graph Neural Network on Sparsely
and Noisily Labeled Graphs [20.470934944907608]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフ上の半教師付き学習タスクに対して,有望な結果を得た。
多くの実世界のグラフはスパースでノイズの多いラベルが付けられており、GNNの性能を著しく低下させる可能性がある。
半教師付きノード分類のためのラベルノイズ耐性GNNを提案する。
論文 参考訳(メタデータ) (2021-06-08T22:12:44Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。