論文の概要: Evaluating Robustness and Uncertainty of Graph Models Under Structural
Distributional Shifts
- arxiv url: http://arxiv.org/abs/2302.13875v2
- Date: Mon, 5 Jun 2023 10:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 02:47:45.820612
- Title: Evaluating Robustness and Uncertainty of Graph Models Under Structural
Distributional Shifts
- Title(参考訳): 構造分布シフト下におけるグラフモデルのロバスト性と不確かさの評価
- Authors: Gleb Bazhenov, Denis Kuznedelev, Andrey Malinin, Artem Babenko,
Liudmila Prokhorenkova
- Abstract要約: グラフ学習におけるノードレベルの問題では、分散シフトは特に複雑である。
本稿では,グラフ構造に基づく分布変化の一般化手法を提案する。
単純なモデルは、これらの挑戦的なシフトにおいて、より洗練された方法よりも優れていることがよく示される。
- 参考スコア(独自算出の注目度): 43.60401026431132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In reliable decision-making systems based on machine learning, models have to
be robust to distributional shifts or provide the uncertainty of their
predictions. In node-level problems of graph learning, distributional shifts
can be especially complex since the samples are interdependent. To evaluate the
performance of graph models, it is important to test them on diverse and
meaningful distributional shifts. However, most graph benchmarks considering
distributional shifts for node-level problems focus mainly on node features,
while structural properties are also essential for graph problems. In this
work, we propose a general approach for inducing diverse distributional shifts
based on graph structure. We use this approach to create data splits according
to several structural node properties: popularity, locality, and density. In
our experiments, we thoroughly evaluate the proposed distributional shifts and
show that they can be quite challenging for existing graph models. We also
reveal that simple models often outperform more sophisticated methods on these
challenging shifts. Finally, our experiments provide evidence that there is a
trade-off between the quality of learned representations for the base
classification task under structural distributional shift and the ability to
separate the nodes from different distributions using these representations.
- Abstract(参考訳): 機械学習に基づく信頼できる意思決定システムでは、モデルは分散シフトに頑健であるか、予測の不確実性を提供する必要がある。
グラフ学習のノードレベルの問題では、サンプルが相互依存であるため、分布シフトは特に複雑になる。
グラフモデルの性能を評価するためには,多様かつ有意義な分布シフトで評価することが重要である。
しかし、ノードレベルの問題に対する分布シフトを考慮に入れたグラフベンチマークのほとんどは、主にノードの特徴に焦点を当てている。
本研究では,グラフ構造に基づく多様な分布シフトを誘導する一般的な手法を提案する。
このアプローチは、人気、局所性、密度といったいくつかの構造ノードプロパティに従ってデータ分割を作成するために使用します。
実験では,提案した分布シフトを徹底的に評価し,既存のグラフモデルでは極めて困難であることを示す。
単純なモデルは、これらの困難なシフトに対して、より洗練された手法をしばしば上回っていることも明らかにしています。
最後に,本実験は,構造分布シフト下でのベース分類タスクの学習表現の品質と,これらの表現を用いてノードを異なる分布から分離する能力との間にトレードオフがあることを実証する。
関連論文リスト
- DeCaf: A Causal Decoupling Framework for OOD Generalization on Node Classification [14.96980804513399]
グラフニューラルネットワーク(GNN)は、分散シフトの影響を受けやすいため、クリティカルドメインの脆弱性やセキュリティ上の問題が発生する。
不変(機能、構造)-ラベルマッピングの学習を目標とする既存の方法は、データ生成プロセスに関する過度に単純化された仮定に依存することが多い。
構造因果モデル(SCM)を用いたより現実的なグラフデータ生成モデルを提案する。
本稿では,非バイアスな特徴ラベルと構造ラベルのマッピングを独立に学習する,カジュアルなデカップリングフレームワークDeCafを提案する。
論文 参考訳(メタデータ) (2024-10-27T00:22:18Z) - A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Graphs Generalization under Distribution Shifts [11.963958151023732]
グラフ学習不変領域ジェネレーション(GLIDER)という新しいフレームワークを導入する。
本モデルでは,ノード特徴量と位相構造量の分布シフトを同時に行う場合,ノードレベルのOOD一般化に基づくベースライン手法よりも優れる。
論文 参考訳(メタデータ) (2024-03-25T00:15:34Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Explaining and Adapting Graph Conditional Shift [28.532526595793364]
グラフニューラルネットワーク(GNN)は,グラフ構造化データに対して顕著な性能を示した。
最近の実証研究により、GNNは分布シフトに非常に敏感であることが示唆されている。
論文 参考訳(メタデータ) (2023-06-05T21:17:48Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Graph Mixture Density Networks [24.0362474769709]
任意の入力グラフに条件付きマルチモーダル出力分布を適合させることができる機械学習モデルの新しいファミリーであるグラフ混合密度ネットワークを導入する。
マルチモダリティと構造を両面から考えると,疫病発生の可能性に大きな改善があることが示唆された。
論文 参考訳(メタデータ) (2020-12-05T17:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。