論文の概要: In-n-Out: Calibrating Graph Neural Networks for Link Prediction
- arxiv url: http://arxiv.org/abs/2403.04605v2
- Date: Fri, 8 Mar 2024 14:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 10:41:05.969434
- Title: In-n-Out: Calibrating Graph Neural Networks for Link Prediction
- Title(参考訳): In-n-Out: リンク予測のためのグラフニューラルネットワークの校正
- Authors: Erik Nascimento, Diego Mesquita, Samuel Kaski, Amauri H Souza
- Abstract要約: グラフニューラルネットワーク(GNN)は、負の予測では過信であり、正の予測では過信であることを示す。
リンク予測のためにGNNを校正する最初の方法であるIN-N-OUTを提案する。
- 参考スコア(独自算出の注目度): 22.729733086532875
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep neural networks are notoriously miscalibrated, i.e., their outputs do
not reflect the true probability of the event we aim to predict. While networks
for tabular or image data are usually overconfident, recent works have shown
that graph neural networks (GNNs) show the opposite behavior for node-level
classification. But what happens when we are predicting links? We show that, in
this case, GNNs often exhibit a mixed behavior. More specifically, they may be
overconfident in negative predictions while being underconfident in positive
ones. Based on this observation, we propose IN-N-OUT, the first-ever method to
calibrate GNNs for link prediction. IN-N-OUT is based on two simple intuitions:
i) attributing true/false labels to an edge while respecting a GNNs prediction
should cause but small fluctuations in that edge's embedding; and, conversely,
ii) if we label that same edge contradicting our GNN, embeddings should change
more substantially. An extensive experimental campaign shows that IN-N-OUT
significantly improves the calibration of GNNs in link prediction, consistently
outperforming the baselines available -- which are not designed for this
specific task.
- Abstract(参考訳): ディープニューラルネットワークの出力は、我々が予測しようとしている事象の真の確率を反映していない、という悪名高い。
グラフデータや画像データのネットワークは通常過信されるが、近年の研究では、グラフニューラルネットワーク(GNN)がノードレベルの分類の逆の振る舞いを示すことが示されている。
しかし、リンクを予測するとどうなるのか?
この場合、GNNは混合行動を示すことが多い。
より具体的には、負の予測では過信されるが、正の予測では過信される。
本稿では,リンク予測のためのGNNの校正手法であるIN-N-OUTを提案する。
IN-N-OUTは2つの単純な直観に基づいている。
i) GNNの予測を尊重しながら真偽のラベルをエッジに付与することは、そのエッジの埋め込みにおいて小さな変動を引き起こし、逆に
ii)GNNと矛盾する同じエッジにラベルを付けると、埋め込みはより大きく変化する。
大規模な実験的キャンペーンでは、IN-N-OUTはリンク予測におけるGNNの校正を大幅に改善し、この特定のタスクのために設計されていないベースラインを一貫して上回っている。
関連論文リスト
- RoCP-GNN: Robust Conformal Prediction for Graph Neural Networks in Node-Classification [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの結果を予測する強力なツールとして登場した。
この問題に対処する一つの方法は、事前に定義された確率マージンを持つ真のラベルを含む予測セットを提供することである。
我々は,GNNに対するロバスト・コンフォーマル予測(RoCP-GNN)と呼ばれる新しい手法を提案する。
我々のアプローチはグラフベース半教師付き学習(SSL)の領域における予測の不確実性を定量化しながら、任意の予測的GNNモデルで結果を確実に予測する。
論文 参考訳(メタデータ) (2024-08-25T12:51:19Z) - E2GNN: Efficient Graph Neural Network Ensembles for Semi-Supervised Classification [30.55931541782854]
本研究では、グラフニューラルネットワーク(GNN)のアンサンブル学習を、人気のある半教師付き環境下で研究する。
ラベル付きノードとラベルなしノードの両方を活用することで,複数のGNNを学習可能な方法で組み立てる,効率的なアンサンブル学習者を提案する。
さまざまなGNNバックボーンと8つのベンチマークデータセットにまたがる、トランスダクティブとインダクティブ両方の設定に関する包括的な実験は、E2GNNの優位性を実証している。
論文 参考訳(メタデータ) (2024-05-06T12:11:46Z) - Editable Graph Neural Network for Node Classifications [43.39295712456175]
本稿では,アンダーライン編集可能なアンダーライングラフ (UnderlineEditable UnderlineGraph underlineNeural UnderlineNetworks (EGNN) を提案する。
EGNNは、モデル編集中にGNNの重みが凍結される基礎となるGNNを単純に縫う。
論文 参考訳(メタデータ) (2023-05-24T19:35:42Z) - Uncertainty Quantification over Graph with Conformalized Graph Neural
Networks [52.20904874696597]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに基づく強力な機械学習予測モデルである。
GNNには厳密な不確実性見積が欠如しており、エラーのコストが重要な設定での信頼性の高いデプロイメントが制限されている。
本稿では,共形予測(CP)をグラフベースモデルに拡張した共形GNN(CF-GNN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T21:38:23Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - CF-GNNExplainer: Counterfactual Explanations for Graph Neural Networks [40.47070962945751]
グラフニューラルネットワーク(GNN)は、現実世界のアプリケーションにおいて、ますます有望であることが示されている。
本稿では, CF-GNNExplainerを提案する。
論文 参考訳(メタデータ) (2021-02-05T17:58:14Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。