論文の概要: Be Confident! Towards Trustworthy Graph Neural Networks via Confidence
Calibration
- arxiv url: http://arxiv.org/abs/2109.14285v1
- Date: Wed, 29 Sep 2021 09:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 21:31:01.195061
- Title: Be Confident! Towards Trustworthy Graph Neural Networks via Confidence
Calibration
- Title(参考訳): 自信を持て!
信頼度校正による信頼できるグラフニューラルネットワークを目指して
- Authors: Xiao Wang, Hongrui Liu, Chuan Shi, Cheng Yang
- Abstract要約: グラフニューラルネットワーク(GNN)の精度は極めて高いが、結果が信頼できるかどうかはまだ明らかにされていない。
これまでの研究では、多くの現代のニューラルネットワークが予測を過信していることが示唆されている。
トポロジを意識したポストホックキャリブレーション関数を設計し,信頼性の高いGNNモデルを提案する。
- 参考スコア(独自算出の注目度): 32.26725705900001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite Graph Neural Networks (GNNs) have achieved remarkable accuracy,
whether the results are trustworthy is still unexplored. Previous studies
suggest that many modern neural networks are over-confident on the predictions,
however, surprisingly, we discover that GNNs are primarily in the opposite
direction, i.e., GNNs are under-confident. Therefore, the confidence
calibration for GNNs is highly desired. In this paper, we propose a novel
trustworthy GNN model by designing a topology-aware post-hoc calibration
function. Specifically, we first verify that the confidence distribution in a
graph has homophily property, and this finding inspires us to design a
calibration GNN model (CaGCN) to learn the calibration function. CaGCN is able
to obtain a unique transformation from logits of GNNs to the calibrated
confidence for each node, meanwhile, such transformation is able to preserve
the order between classes, satisfying the accuracy-preserving property.
Moreover, we apply the calibration GNN to self-training framework, showing that
more trustworthy pseudo labels can be obtained with the calibrated confidence
and further improve the performance. Extensive experiments demonstrate the
effectiveness of our proposed model in terms of both calibration and accuracy.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は目覚ましい精度を達成したが、信頼に値する結果がまだ探索されていない。
これまでの研究では、多くの現代のニューラルネットワークが予測を過信していることが示唆されていたが、驚くべきことに、GNNが主に反対方向、すなわちGNNが過信であることがわかった。
そのため、GNNの信頼性校正が望まれている。
本稿では,トポロジーを考慮したポストホックキャリブレーション関数を設計し,信頼性の高いGNNモデルを提案する。
具体的には,まず,グラフ内の信頼度分布がホモフィイ性を持っていることを検証し,この発見はキャリブレーションgnnモデル(cagcn)の設計を刺激し,キャリブレーション関数を学ぶ。
CaGCNはGNNのロジットから各ノードの校正された信頼度へのユニークな変換を得ることができ、一方、そのような変換はクラス間の順序を保ち、精度保存性を満たすことができる。
さらに,キャリブレーションgnnを自己学習フレームワークに適用することで,信頼性の高い疑似ラベルをキャリブレーション信頼度で得ることができ,さらにパフォーマンスが向上することを示す。
広範な実験により,提案モデルの有効性をキャリブレーションと精度の両面で実証した。
関連論文リスト
- Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Accurate and Scalable Estimation of Epistemic Uncertainty for Graph
Neural Networks [40.95782849532316]
固有GNNの不確実性推定を改善するための新しいトレーニングフレームワークを提案する。
我々のフレームワークは、新しいグラフアンカー戦略を通じて、データをグラフデータに中心付けるという原則に適応する。
本研究は,GNNの不確実性推定に関する知見を提供し,信頼度推定におけるG-$Delta$UQの有用性を実証する。
論文 参考訳(メタデータ) (2024-01-07T00:58:33Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - What Makes Graph Neural Networks Miscalibrated? [48.00374886504513]
グラフニューラルネットワーク(GNN)の校正特性に関する系統的研究を行う。
我々は,GNNのキャリブレーションに影響を与える5つの要因を同定する: 一般信頼度傾向, ノード単位の予測分布の多様性, 訓練ノード間距離, 相対信頼度, 近傍類似度。
我々は,グラフニューラルネットワークのキャリブレーションに適した新しいキャリブレーション手法であるグラフアテンション温度スケーリング(GATS)を設計する。
論文 参考訳(メタデータ) (2022-10-12T16:41:42Z) - TrustGNN: Graph Neural Network based Trust Evaluation via Learnable
Propagative and Composable Nature [63.78619502896071]
信頼評価は、サイバーセキュリティ、ソーシャルコミュニケーション、レコメンダシステムなど、多くのアプリケーションにとって重要である。
本稿では,信頼グラフの伝播性および構成性を考慮した新しい信頼評価手法TrustGNNを提案する。
具体的には、TrustGNNは、異なる伝播過程のための特定の伝播パターンを設計し、新しい信頼を生み出すための異なる伝播過程の貢献を区別する。
論文 参考訳(メタデータ) (2022-05-25T13:57:03Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Calibrating Deep Neural Network Classifiers on Out-of-Distribution
Datasets [20.456742449675904]
CCAC(Confidence with a Auxiliary Class)はディープニューラルネットワーク(DNN)のための新しいポストホック信頼度校正法である
CCACのキーノベルティは、誤分類されたサンプルと正しく分類されたサンプルを分離するキャリブレーションモデルにおける補助クラスである。
異なるDNNモデル,データセット,アプリケーションに対する実験により,CCACは従来よりずっと優れていることがわかった。
論文 参考訳(メタデータ) (2020-06-16T04:06:21Z) - On Calibration of Mixup Training for Deep Neural Networks [1.6242924916178283]
我々は、Mixupが必ずしも校正を改善していないという実証的な証拠を論じ、提示する。
我々の損失はベイズ決定理論にインスパイアされ、確率的モデリングの損失を設計するための新しいトレーニングフレームワークが導入された。
キャリブレーション性能を一貫した改善を施した最先端の精度を提供する。
論文 参考訳(メタデータ) (2020-03-22T16:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。