論文の概要: On Calibration of Graph Neural Networks for Node Classification
- arxiv url: http://arxiv.org/abs/2206.01570v1
- Date: Fri, 3 Jun 2022 13:48:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:37:09.001152
- Title: On Calibration of Graph Neural Networks for Node Classification
- Title(参考訳): ノード分類のためのグラフニューラルネットワークの校正について
- Authors: Tong Liu, Yushan Liu, Marcel Hildebrandt, Mitchell Joblin, Hang Li,
Volker Tresp
- Abstract要約: グラフニューラルネットワークは、ノード分類やリンク予測といったタスクのためのエンティティとエッジの埋め込みを学ぶ。
これらのモデルは精度で優れた性能を発揮するが、予測に付随する信頼性スコアは校正されないかもしれない。
本稿では,近隣ノードを考慮に入れたトポロジ対応キャリブレーション手法を提案する。
- 参考スコア(独自算出の注目度): 29.738179864433445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphs can model real-world, complex systems by representing entities and
their interactions in terms of nodes and edges. To better exploit the graph
structure, graph neural networks have been developed, which learn entity and
edge embeddings for tasks such as node classification and link prediction.
These models achieve good performance with respect to accuracy, but the
confidence scores associated with the predictions might not be calibrated. That
means that the scores might not reflect the ground-truth probabilities of the
predicted events, which would be especially important for safety-critical
applications. Even though graph neural networks are used for a wide range of
tasks, the calibration thereof has not been sufficiently explored yet. We
investigate the calibration of graph neural networks for node classification,
study the effect of existing post-processing calibration methods, and analyze
the influence of model capacity, graph density, and a new loss function on
calibration. Further, we propose a topology-aware calibration method that takes
the neighboring nodes into account and yields improved calibration compared to
baseline methods.
- Abstract(参考訳): グラフは、実体とその相互作用をノードとエッジの観点から表現することで、現実世界の複雑なシステムをモデル化することができる。
グラフ構造をよりうまく活用するために、ノード分類やリンク予測などのタスクのためのエンティティとエッジ埋め込みを学習するグラフニューラルネットワークが開発された。
これらのモデルは精度で優れた性能を発揮するが、予測に関連する信頼性スコアは校正されないかもしれない。
つまり、スコアは予測された事象の真正の確率を反映していないかもしれない。
グラフニューラルネットワークは幅広いタスクに使用されているが、そのキャリブレーションはまだ十分に検討されていない。
本研究では,ノード分類のためのグラフニューラルネットワークのキャリブレーション,既存処理後のキャリブレーション手法の効果,モデル容量,グラフ密度,新しい損失関数の影響について検討した。
さらに,隣接ノードを考慮したトポロジー対応キャリブレーション手法を提案する。
関連論文リスト
- Gradient Rewiring for Editable Graph Neural Network Training [84.77778876113099]
underlineGradient underlineRewiringメソッドは、textbfGREという、アンダーライン編集可能なグラフニューラルネットワークトレーニングのためのものだ。
そこで本稿では,textbfGRE という名前のアンダーライン編集可能なグラフニューラルネットワークトレーニングのための,シンプルで効果的なアンダーライングラディエントアンダーラインリスイッチ法を提案する。
論文 参考訳(メタデータ) (2024-10-21T01:01:50Z) - GETS: Ensemble Temperature Scaling for Calibration in Graph Neural Networks [8.505932176266368]
グラフニューラルネットワークは強力な分類結果を提供するが、しばしばキャリブレーション性能の低下に悩まされ、自信過剰や自信不足につながる。
温度スケーリングのような既存のポストホック法はグラフ構造を効果的に利用できないが、現在のGNNキャリブレーション法は様々な入力情報とモデルアンサンブルを併用する可能性をしばしば見落としている。
本稿では,10GNNベンチマークデータセットに対して予測キャリブレーション誤差を25%低減し,入力とモデルのアンサンブル戦略を組み合わせた新しいキャリブレーションフレームワークであるGraph Ensemble TemperatureScalingを提案する。
論文 参考訳(メタデータ) (2024-10-12T15:34:41Z) - Graph Mining under Data scarcity [6.229055041065048]
汎用グラフニューラルネットワーク(GNN)上に適用可能な不確実性推定フレームワークを提案する。
エンド・ツー・エンドの設定で、$n$-way、$k$-shotという古典的なエピソード学習パラダイムの下でこれらのモデルをトレーニングします。
提案手法は,GNNを用いたグラフ上のFew-shotノード分類における不確実性推定器の有効性を示すベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-06-07T10:50:03Z) - Decoupling Feature Extraction and Classification Layers for Calibrated Neural Networks [3.5284544394841117]
過度にパラメータ化されたDNNアーキテクチャにおける特徴抽出層と分類層の訓練を分離することで、モデルの校正が大幅に向上することを示す。
本稿では,複数の画像分類ベンチマークデータセットに対して,VTおよびWRNアーキテクチャ間のキャリブレーションを改善する手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T11:36:17Z) - Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - What Makes Graph Neural Networks Miscalibrated? [48.00374886504513]
グラフニューラルネットワーク(GNN)の校正特性に関する系統的研究を行う。
我々は,GNNのキャリブレーションに影響を与える5つの要因を同定する: 一般信頼度傾向, ノード単位の予測分布の多様性, 訓練ノード間距離, 相対信頼度, 近傍類似度。
我々は,グラフニューラルネットワークのキャリブレーションに適した新しいキャリブレーション手法であるグラフアテンション温度スケーリング(GATS)を設計する。
論文 参考訳(メタデータ) (2022-10-12T16:41:42Z) - Bayesian Neural Network Versus Ex-Post Calibration For Prediction
Uncertainty [0.2343856409260935]
ニューラルネットワークからの確率的予測は、分類中の予測の不確実性の原因となる。
実際には、ほとんどのデータセットは非確率的ニューラルネットワークでトレーニングされています。
キャリブレーションアプローチのもっともらしい代替手段は、予測分布を直接モデル化するベイズニューラルネットワークを使用することである。
論文 参考訳(メタデータ) (2022-09-29T07:22:19Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Intra Order-preserving Functions for Calibration of Multi-Class Neural
Networks [54.23874144090228]
一般的なアプローチは、元のネットワークの出力をキャリブレーションされた信頼スコアに変換する、ポストホックキャリブレーション関数を学ぶことである。
以前のポストホックキャリブレーション技術は単純なキャリブレーション機能でしか機能しない。
本稿では,順序保存関数のクラスを表すニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-15T12:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。