論文の概要: PAC Learnability under Explanation-Preserving Graph Perturbations
- arxiv url: http://arxiv.org/abs/2402.05039v1
- Date: Wed, 7 Feb 2024 17:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 14:13:27.402047
- Title: PAC Learnability under Explanation-Preserving Graph Perturbations
- Title(参考訳): 説明保存グラフ摂動下におけるPAC学習可能性
- Authors: Xu Zheng, Farhad Shirani, Tianchun Wang, Shouwei Gao, Wenqian Dong,
Wei Cheng, Dongsheng Luo
- Abstract要約: グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
- 参考スコア(独自算出の注目度): 15.83659369727204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graphical models capture relations between entities in a wide range of
applications including social networks, biology, and natural language
processing, among others. Graph neural networks (GNN) are neural models that
operate over graphs, enabling the model to leverage the complex relationships
and dependencies in graph-structured data. A graph explanation is a subgraph
which is an `almost sufficient' statistic of the input graph with respect to
its classification label. Consequently, the classification label is invariant,
with high probability, to perturbations of graph edges not belonging to its
explanation subgraph. This work considers two methods for leveraging such
perturbation invariances in the design and training of GNNs. First,
explanation-assisted learning rules are considered. It is shown that the sample
complexity of explanation-assisted learning can be arbitrarily smaller than
explanation-agnostic learning. Next, explanation-assisted data augmentation is
considered, where the training set is enlarged by artificially producing new
training samples via perturbation of the non-explanation edges in the original
training set. It is shown that such data augmentation methods may improve
performance if the augmented data is in-distribution, however, it may also lead
to worse sample complexity compared to explanation-agnostic learning rules if
the augmented data is out-of-distribution. Extensive empirical evaluations are
provided to verify the theoretical analysis.
- Abstract(参考訳): グラフィカルモデルは、ソーシャルネットワーク、生物学、自然言語処理など、幅広いアプリケーションにおけるエンティティ間の関係を捉えている。
グラフニューラルネットワーク(GNN)は、グラフ上で動作するニューラルモデルであり、グラフ構造化データの複雑な関係と依存関係を活用することができる。
グラフの説明は、その分類ラベルに関して入力グラフの「ほぼ十分」統計である部分グラフである。
したがって、分類ラベルは、説明部分グラフに属さないグラフエッジの摂動に対して、高い確率で不変である。
本研究は,gnnの設計とトレーニングにおいて,そのような摂動不変性を活用するための2つの方法を検討する。
まず,説明支援学習ルールを検討する。
説明支援学習のサンプル複雑性は,説明非依存学習よりも任意に小さいことが示された。
次に、元のトレーニングセットにおける非説明エッジの摂動を通じて新たなトレーニングサンプルを人工的に生成することにより、トレーニングセットを拡大する説明支援データ拡張について検討する。
このようなデータ拡張手法は,拡張データが分散内にある場合,性能が向上するが,拡張データが分散外である場合,説明非依存の学習規則に比べてサンプルの複雑さが悪化する可能性がある。
理論解析を検証するために広範な経験的評価が提供されている。
関連論文リスト
- Self-Supervised Conditional Distribution Learning on Graphs [15.730933577970687]
本稿では,従来の特徴に対して,弱い特徴と強く拡張された特徴の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
このアライメントは、グラフ構造化データ拡張による本質的な意味情報の破壊のリスクを効果的に低減する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Imbalanced Graph Classification with Multi-scale Oversampling Graph Neural Networks [25.12261412297796]
本稿では,表現力のあるマイノリティグラフ表現を学習するマルチスケールオーバーサンプリンググラフニューラルネットワーク(MOSGNN)を提案する。
サブグラフレベル、グラフレベル、ペアワイズグラフ学習タスクを共同で最適化することで、これを実現する。
16のバランスの取れないグラフデータセットの実験では、MOSGNN i)が5つの最先端モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2024-05-08T09:16:54Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Diving into Unified Data-Model Sparsity for Class-Imbalanced Graph
Representation Learning [30.23894624193583]
非ユークリッドグラフデータに基づくグラフニューラルネットワーク(GNN)トレーニングは、しばしば比較的高い時間コストに直面する。
グラフ決定(Graph Decantation, GraphDec)と呼ばれる統一されたデータモデル動的疎結合フレームワークを開発し, 大規模なクラス不均衡グラフデータのトレーニングによる課題に対処する。
論文 参考訳(メタデータ) (2022-10-01T01:47:00Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Graph-in-Graph (GiG): Learning interpretable latent graphs in
non-Euclidean domain for biological and healthcare applications [52.65389473899139]
グラフは、医療領域において、非ユークリッドな非ユークリッドデータをユビキタスに表現し、分析するための強力なツールである。
近年の研究では、入力データサンプル間の関係を考慮すると、下流タスクに正の正の正則化効果があることが示されている。
タンパク質分類と脳イメージングのためのニューラルネットワークアーキテクチャであるGraph-in-Graph(GiG)を提案する。
論文 参考訳(メタデータ) (2022-04-01T10:01:37Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Hyperbolic Graph Embedding with Enhanced Semi-Implicit Variational
Inference [48.63194907060615]
半単純グラフ変分自動エンコーダを用いて,低次元グラフ潜在表現における高次統計量を取得する。
我々は、階層構造を示すグラフを効率的に表現するために、ポインケア埋め込みを通して潜在空間に双曲幾何学を組み込む。
論文 参考訳(メタデータ) (2020-10-31T05:48:34Z) - Contrastive Graph Neural Network Explanation [13.234975857626749]
グラフニューラルネットワークは構造化データの問題に対して顕著な結果を得るが、ブラックボックス予測器として現れる。
我々は、訓練データの基礎となる分布に準拠するグラフを使用しなければならないと論じる。
本稿では,このパラダイムに従う新しいコントラストGNN説明手法を提案する。
論文 参考訳(メタデータ) (2020-10-26T15:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。