論文の概要: ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance
- arxiv url: http://arxiv.org/abs/2312.08852v2
- Date: Fri, 8 Mar 2024 12:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:56:06.684624
- Title: ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance
- Title(参考訳): ERASE:ラベル耐雑音性のためのグラフ上での誤り耐性表現学習
- Authors: Ling-Hao Chen, Yuanshuo Zhang, Taohua Huang, Liangcai Su, Zeyi Lin, Xi
Xiao, Xiaobo Xia, and Tongliang Liu
- Abstract要約: 本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
- 参考スコア(独自算出の注目度): 53.73316938815873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved remarkable success in graph-related tasks, yet
this accomplishment heavily relies on large-scale high-quality annotated
datasets. However, acquiring such datasets can be cost-prohibitive, leading to
the practical use of labels obtained from economically efficient sources such
as web searches and user tags. Unfortunately, these labels often come with
noise, compromising the generalization performance of deep networks. To tackle
this challenge and enhance the robustness of deep learning models against label
noise in graph-based tasks, we propose a method called ERASE (Error-Resilient
representation learning on graphs for lAbel noiSe tolerancE). The core idea of
ERASE is to learn representations with error tolerance by maximizing coding
rate reduction. Particularly, we introduce a decoupled label propagation method
for learning representations. Before training, noisy labels are pre-corrected
through structural denoising. During training, ERASE combines prototype
pseudo-labels with propagated denoised labels and updates representations with
error resilience, which significantly improves the generalization performance
in node classification. The proposed method allows us to more effectively
withstand errors caused by mislabeled nodes, thereby strengthening the
robustness of deep networks in handling noisy graph data. Extensive
experimental results show that our method can outperform multiple baselines
with clear margins in broad noise levels and enjoy great scalability. Codes are
released at https://github.com/eraseai/erase.
- Abstract(参考訳): 深層学習はグラフ関連のタスクで顕著に成功したが、この成果は大規模で高品質な注釈付きデータセットに大きく依存している。
しかし、そのようなデータセットの取得はコストがかかるため、web検索やユーザタグといった経済的に効率的なソースから得られるラベルを実用化することができる。
残念ながら、これらのラベルはノイズを伴い、ディープネットワークの一般化性能を損なうことが多い。
この課題に対処し、グラフベースタスクにおけるラベルノイズに対するディープラーニングモデルの堅牢性を高めるために、ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) と呼ばれる手法を提案する。
ERASEの中核となる考え方は、符号化率の最大化により、エラー耐性のある表現を学習することである。
特に,表現を学習するための分離ラベル伝搬法を提案する。
トレーニングの前には、ノイズラベルは構造的装飾によって事前修正される。
トレーニング中、ERASEはプロトタイプの擬似ラベルとプロパゲーションされた識別ラベルと、表現の更新とエラーレジリエンスを組み合わせ、ノード分類における一般化性能を大幅に改善した。
提案手法は,ノードのラベルのずれによる誤りに対してより効果的に対処し,ノイズの多いグラフデータを扱う際のディープネットワークの堅牢性を高める。
大規模な実験結果から,提案手法は広い雑音レベルにおいて明瞭なマージンで複数のベースラインを上回り,高いスケーラビリティを享受できることが示された。
コードはhttps://github.com/eraseai/eraseでリリースされる。
関連論文リスト
- CONVERT:Contrastive Graph Clustering with Reliable Augmentation [110.46658439733106]
信頼性オーグメンテーション(CONVERT)を用いたContrastiVe Graph ClustEringネットワークを提案する。
本手法では,データ拡張を可逆的パーターブ・リカバリネットワークにより処理する。
セマンティクスの信頼性をさらに保証するために、ネットワークを制約する新たなセマンティクス損失が提示される。
論文 参考訳(メタデータ) (2023-08-17T13:07:09Z) - Robust Feature Learning Against Noisy Labels [0.2082426271304908]
ミスラベルされたサンプルはモデルの一般化を著しく低下させることができる。
ノイズラベルによる監督の負の影響を最小限に抑えるために、プログレッシブな自己ブートストラッピングが導入される。
実験結果から,本手法は強騒音ラベル下でモデルロバスト性を効果的かつ効果的に向上できることが示唆された。
論文 参考訳(メタデータ) (2023-07-10T02:55:35Z) - Learning on Graphs under Label Noise [5.909452203428086]
我々は,ラベルノイズのあるグラフ上での学習問題を解決するために,CGNN(Consistent Graph Neural Network)と呼ばれる新しいアプローチを開発した。
具体的には、グラフの対比学習を正規化用語として採用し、拡張ノードの2つのビューが一貫した表現を持つように促進する。
グラフ上の雑音ラベルを検出するために,ホモフィリー仮定に基づくサンプル選択手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T01:38:01Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Learn to Propagate Reliably on Noisy Affinity Graphs [69.97364913330989]
近年の研究では,ラベル伝搬によるラベル付きデータの利用により,ラベル付けコストを大幅に削減できることが示されている。
ラベルを確実に伝播する方法、特に未知の外れ値を持つデータセットでは、依然として未解決の問題である。
本稿では,大規模実世界のデータ上でラベルを確実に伝播させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-17T07:55:59Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。