論文の概要: Distributionally Robust Semi-Supervised Learning Over Graphs
- arxiv url: http://arxiv.org/abs/2110.10582v1
- Date: Wed, 20 Oct 2021 14:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 14:35:31.238431
- Title: Distributionally Robust Semi-Supervised Learning Over Graphs
- Title(参考訳): グラフ上の半教師付き分散ロバスト学習
- Authors: Alireza Sadeghi, Meng Ma, Bingcong Li, Georgios B. Giannakis
- Abstract要約: グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
- 参考スコア(独自算出の注目度): 68.29280230284712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning (SSL) over graph-structured data emerges in many
network science applications. To efficiently manage learning over graphs,
variants of graph neural networks (GNNs) have been developed recently. By
succinctly encoding local graph structures and features of nodes,
state-of-the-art GNNs can scale linearly with the size of graph. Despite their
success in practice, most of existing methods are unable to handle graphs with
uncertain nodal attributes. Specifically whenever mismatches between training
and testing data distribution exists, these models fail in practice. Challenges
also arise due to distributional uncertainties associated with data acquired by
noisy measurements. In this context, a distributionally robust learning
framework is developed, where the objective is to train models that exhibit
quantifiable robustness against perturbations. The data distribution is
considered unknown, but lies within a Wasserstein ball centered around
empirical data distribution. A robust model is obtained by minimizing the worst
expected loss over this ball. However, solving the emerging functional
optimization problem is challenging, if not impossible. Advocating a strong
duality condition, we develop a principled method that renders the problem
tractable and efficiently solvable. Experiments assess the performance of the
proposed method.
- Abstract(参考訳): グラフ構造化データに対する半教師付き学習(SSL)は多くのネットワーク科学アプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
局所グラフ構造とノードの特徴を簡潔に符号化することにより、最先端のGNNはグラフのサイズと線形にスケールすることができる。
実際の成功にもかかわらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
特に、トレーニングとテストデータ分散のミスマッチが存在する場合、これらのモデルは実際に失敗する。
ノイズ測定によって取得されたデータに関連する分布的不確実性も課題となっている。
この文脈では、分散ロバストな学習フレームワークが開発され、摂動に対する定量的ロバスト性を示すモデルを訓練することが目的である。
データ分布は不明だが、実験的なデータ分布を中心にしたワッサーシュタイン球の中にある。
このボールに対する最悪の損失を最小限に抑え、ロバストなモデルを得る。
しかし、新たな機能最適化問題の解決は不可能ではないが難しい。
強い双対性条件を回避し,問題を抽出可能かつ効率的に解ける原理的手法を開発した。
提案手法の性能評価実験を行った。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Diving into Unified Data-Model Sparsity for Class-Imbalanced Graph
Representation Learning [30.23894624193583]
非ユークリッドグラフデータに基づくグラフニューラルネットワーク(GNN)トレーニングは、しばしば比較的高い時間コストに直面する。
グラフ決定(Graph Decantation, GraphDec)と呼ばれる統一されたデータモデル動的疎結合フレームワークを開発し, 大規模なクラス不均衡グラフデータのトレーニングによる課題に対処する。
論文 参考訳(メタデータ) (2022-10-01T01:47:00Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Learning Graphs from Smooth Signals under Moment Uncertainty [23.868075779606425]
与えられたグラフ信号の集合からグラフ構造を推測する問題を検討する。
従来のグラフ学習モデルは、この分布の不確実性を考慮していない。
論文 参考訳(メタデータ) (2021-05-12T06:47:34Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。