論文の概要: Uncertainty-Aware Robust Learning on Noisy Graphs
- arxiv url: http://arxiv.org/abs/2306.08210v2
- Date: Thu, 13 Mar 2025 14:30:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:49:34.658024
- Title: Uncertainty-Aware Robust Learning on Noisy Graphs
- Title(参考訳): 雑音グラフによる不確実性を考慮したロバスト学習
- Authors: Shuyi Chen, Kaize Ding, Shixiang Zhu,
- Abstract要約: 本稿では,分散的ロバストな最適化に着想を得た,不確実性を考慮したグラフ学習フレームワークを提案する。
グラフニューラルネットワークベースのエンコーダを用いて、ノードの特徴を埋め込んで、最適なノード埋め込みを見つけます。
このような不確実性を考慮した学習プロセスは、ノード表現の改善と、より堅牢なグラフ予測モデルをもたらす。
- 参考スコア(独自算出の注目度): 22.848589361600382
- License:
- Abstract: Graph neural networks (GNNs) have excelled in various graph learning tasks, particularly node classification. However, their performance is often hampered by noisy measurements in real-world graphs, which can corrupt critical patterns in the data. To address this, we propose a novel uncertainty-aware graph learning framework inspired by distributionally robust optimization. Specifically, we use a graph neural network-based encoder to embed the node features and find the optimal node embeddings by minimizing the worst-case risk through a minimax formulation. Such an uncertainty-aware learning process leads to improved node representations and a more robust graph predictive model that effectively mitigates the impact of uncertainty arising from data noise. Our experimental results demonstrate superior predictive performance over baselines across noisy scenarios.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスク、特にノード分類に優れています。
しかし、それらの性能は実世界のグラフにおけるノイズ測定によって妨げられ、これはデータの臨界パターンを損なう可能性がある。
そこで本研究では,分散的ロバストな最適化に着想を得た,不確実性を考慮したグラフ学習フレームワークを提案する。
具体的には、グラフニューラルネットワークベースのエンコーダを用いて、ノードの特徴を埋め込み、最小限の定式化によって最悪のリスクを最小限に抑えて最適なノードの埋め込みを見つける。
このような不確実性を考慮した学習プロセスは、ノード表現の改善と、データノイズによる不確実性の影響を効果的に軽減するより堅牢なグラフ予測モデルをもたらす。
実験結果から,ノイズの多いシナリオにおいて,ベースラインよりも優れた予測性能が得られた。
関連論文リスト
- GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Bayesian Inductive Learner for Graph Resiliency under uncertainty [1.9254132307399257]
大規模グラフにおける臨界ノードを特定するためのベイズグラフニューラルネットワークに基づくフレームワークを提案する。
フレームワークが提供する計算複雑性の忠実さと向上について説明する。
論文 参考訳(メタデータ) (2020-12-26T07:22:29Z) - Unsupervised Adversarially-Robust Representation Learning on Graphs [26.48111798048012]
近年の研究では、グラフの深層学習が敵の攻撃に弱いことが示されている。
本稿では,相互情報を用いたグラフ上でのロバスト表現学習の根底にある問題に焦点をあてる。
論文 参考訳(メタデータ) (2020-12-04T09:29:16Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。