論文の概要: The Final Layer Holds the Key: A Unified and Efficient GNN Calibration Framework
- arxiv url: http://arxiv.org/abs/2505.11335v1
- Date: Fri, 16 May 2025 15:02:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.372465
- Title: The Final Layer Holds the Key: A Unified and Efficient GNN Calibration Framework
- Title(参考訳): 最終レイヤが鍵を握る:統一的で効率的なGNNキャリブレーションフレームワーク
- Authors: Jincheng Huang, Jie Xu, Xiaoshuang Shi, Ping Hu, Lei Feng, Xiaofeng Zhu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースのタスクにおいて顕著な効果を示した。
しかしながら、彼らの予測的自信は、しばしば誤解され、通常、自信不足を示す。
本稿では,この問題に対処するための簡易かつ効率的なグラフキャリブレーション法を提案する。
- 参考スコア(独自算出の注目度): 28.079132719743697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated remarkable effectiveness on graph-based tasks. However, their predictive confidence is often miscalibrated, typically exhibiting under-confidence, which harms the reliability of their decisions. Existing calibration methods for GNNs normally introduce additional calibration components, which fail to capture the intrinsic relationship between the model and the prediction confidence, resulting in limited theoretical guarantees and increased computational overhead. To address this issue, we propose a simple yet efficient graph calibration method. We establish a unified theoretical framework revealing that model confidence is jointly governed by class-centroid-level and node-level calibration at the final layer. Based on this insight, we theoretically show that reducing the weight decay of the final-layer parameters alleviates GNN under-confidence by acting on the class-centroid level, while node-level calibration acts as a finer-grained complement to class-centroid level calibration, which encourages each test node to be closer to its predicted class centroid at the final-layer representations. Extensive experiments validate the superiority of our method.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースのタスクにおいて顕著な効果を示した。
しかしながら、彼らの予測的自信は、しばしば誤解され、通常、信頼不足を示し、彼らの決定の信頼性を損なう。
既存のGNNのキャリブレーション手法では、モデルと予測信頼性の固有の関係を捉えることができず、理論上の保証が限られ、計算オーバーヘッドが増大する。
この問題に対処するために,簡単なグラフキャリブレーション手法を提案する。
我々は,モデル信頼度が最終層におけるクラスセントロイドレベルとノードレベルキャリブレーションによって共同で管理されていることを示す統一的な理論枠組みを確立する。
この知見に基づき, 最終層パラメータの重み劣化の低減は, クラスセントロイドレベルに作用することによってGNNのアンダー信頼を緩和する一方, ノードレベルのキャリブレーションはクラスセントロイドレベルキャリブレーションのよりきめ細かい補完として作用し, 最終層表現において各テストノードが予測クラスセントロイドに近づいたことを理論的に示す。
大規模な実験により,本手法の優位性を検証した。
関連論文リスト
- Enhance GNNs with Reliable Confidence Estimation via Adversarial Calibration Learning [30.450482094196243]
優れた予測性能にもかかわらず、GNNは信頼度が低いことがしばしばある。
この問題は、不正検出やリスクアセスメントといった高リスク領域における信頼性に関する懸念を提起する。
本稿では,異なるノード群間のキャリブレーションを適応的に強化する新しいAdvCaliフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-23T23:04:41Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
提案したキャリブレーション深層クラスタリングモデルでは, キャリブレーション誤差の予測値において, 最先端の深部クラスタリング手法を平均5倍に越えるだけでなく, クラスタリング精度も大幅に向上する。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Accurate and Scalable Estimation of Epistemic Uncertainty for Graph Neural Networks [38.17680286557666]
固有GNNの不確実性推定を改善するための新しいトレーニングフレームワークを提案する。
我々のフレームワークは、新しいグラフアンカー戦略を通じて、データをグラフデータに中心付けるという原則に適応する。
本研究は,GNNの不確実性推定に関する知見を提供し,信頼度推定におけるG-$Delta$UQの有用性を実証する。
論文 参考訳(メタデータ) (2024-01-07T00:58:33Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Be Confident! Towards Trustworthy Graph Neural Networks via Confidence
Calibration [32.26725705900001]
グラフニューラルネットワーク(GNN)の精度は極めて高いが、結果が信頼できるかどうかはまだ明らかにされていない。
これまでの研究では、多くの現代のニューラルネットワークが予測を過信していることが示唆されている。
トポロジを意識したポストホックキャリブレーション関数を設計し,信頼性の高いGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-09-29T09:08:20Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。