論文の概要: Enhance GNNs with Reliable Confidence Estimation via Adversarial Calibration Learning
- arxiv url: http://arxiv.org/abs/2503.18235v1
- Date: Sun, 23 Mar 2025 23:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:46.698955
- Title: Enhance GNNs with Reliable Confidence Estimation via Adversarial Calibration Learning
- Title(参考訳): 逆校正学習による信頼度推定によるGNNの強化
- Authors: Yilong Wang, Jiahao Zhang, Tianxiang Zhao, Suhang Wang,
- Abstract要約: 優れた予測性能にもかかわらず、GNNは信頼度が低いことがしばしばある。
この問題は、不正検出やリスクアセスメントといった高リスク領域における信頼性に関する懸念を提起する。
本稿では,異なるノード群間のキャリブレーションを適応的に強化する新しいAdvCaliフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.450482094196243
- License:
- Abstract: Despite their impressive predictive performance, GNNs often exhibit poor confidence calibration, i.e., their predicted confidence scores do not accurately reflect true correctness likelihood. This issue raises concerns about their reliability in high-stakes domains such as fraud detection, and risk assessment, where well-calibrated predictions are essential for decision-making. To ensure trustworthy predictions, several GNN calibration methods are proposed. Though they can improve global calibration, our experiments reveal that they often fail to generalize across different node groups, leading to inaccurate confidence in node groups with different degree levels, classes, and local structures. In certain cases, they even degrade calibration compared to the original uncalibrated GNN. To address this challenge, we propose a novel AdvCali framework that adaptively enhances calibration across different node groups. Our method leverages adversarial training to automatically identify mis-calibrated node groups and applies a differentiable Group Expected Calibration Error (ECE) loss term to refine confidence estimation within these groups. This allows the model to dynamically adjust its calibration strategy without relying on dataset-specific prior knowledge about miscalibrated subgroups. Extensive experiments on real-world datasets demonstrate that our approach not only improves global calibration but also significantly enhances calibration within groups defined by feature similarity, topology, and connectivity, outperforming previous methods and demonstrating its effectiveness in practical scenarios.
- Abstract(参考訳): 優れた予測性能にもかかわらず、GNNは信頼度が低いこと、すなわち、予測された信頼度スコアは真の正しさの可能性を正確に反映しない。
この問題は、不正検出やリスクアセスメントのような高い評価領域における信頼性に関する懸念を提起する。
信頼性の高い予測を保証するため、いくつかのGNNキャリブレーション手法が提案されている。
グローバルキャリブレーションを改善することはできるが、我々の実験は、しばしば異なるノード群をまたいだ一般化に失敗し、異なる次数レベル、クラス、局所構造を持つノード群における不正確な信頼をもたらすことを示した。
一部のケースでは、元の未校正GNNと比較して校正を低下させる。
この課題に対処するために、異なるノード群間のキャリブレーションを適応的に強化する新しいAdvCaliフレームワークを提案する。
提案手法は, 誤り校正ノード群の自動識別に逆行訓練を活用し, 識別可能なグループ予測校正誤差(ECE)損失項を適用し, グループ内の信頼度を推定する。
これにより、誤校正されたサブグループに関するデータセット固有の事前知識に頼ることなく、キャリブレーション戦略を動的に調整することができる。
実世界のデータセットに対する大規模な実験により、我々のアプローチはグローバルキャリブレーションを改善するだけでなく、特徴類似性、トポロジ、接続性によって定義されたグループ内のキャリブレーションを著しく向上させ、従来の手法より優れ、実用的なシナリオにおいてその効果を示すことが示されている。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
大規模実験により, 提案手法は, 最先端の深層クラスタリング手法を10倍に越えるだけでなく, クラスタリング精度も大幅に向上した。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Domain-adaptive and Subgroup-specific Cascaded Temperature Regression
for Out-of-distribution Calibration [16.930766717110053]
本稿では, メタセットをベースとした新しい温度回帰法を提案し, ポストホックキャリブレーション法を提案する。
予測されたカテゴリと信頼度に基づいて,各メタセットをサブグループに分割し,多様な不確実性を捉える。
回帰ネットワークは、カテゴリ特化および信頼レベル特化スケーリングを導出し、メタセット間のキャリブレーションを達成するように訓練される。
論文 参考訳(メタデータ) (2024-02-14T14:35:57Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Beyond calibration: estimating the grouping loss of modern neural
networks [68.8204255655161]
適切なスコアリングルール理論は、キャリブレーション損失が与えられた場合、個々のエラーを特徴づける欠片がグループ化損失であることを示している。
視覚およびNLPにおける現代のニューラルネットワークアーキテクチャは、特に分散シフト設定においてグループ化損失を示す。
論文 参考訳(メタデータ) (2022-10-28T07:04:20Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Calibrating Deep Neural Network Classifiers on Out-of-Distribution
Datasets [20.456742449675904]
CCAC(Confidence with a Auxiliary Class)はディープニューラルネットワーク(DNN)のための新しいポストホック信頼度校正法である
CCACのキーノベルティは、誤分類されたサンプルと正しく分類されたサンプルを分離するキャリブレーションモデルにおける補助クラスである。
異なるDNNモデル,データセット,アプリケーションに対する実験により,CCACは従来よりずっと優れていることがわかった。
論文 参考訳(メタデータ) (2020-06-16T04:06:21Z) - Calibrate and Prune: Improving Reliability of Lottery Tickets Through
Prediction Calibration [40.203492372949576]
未確認の信頼を持つ監視されたモデルは、誤った予測をしたとしても過信される傾向がある。
パラメータの過剰なネットワークにおける明確な信頼度校正が、その結果の宝くじの品質に与える影響について検討する。
我々の実証研究は、キャリブレーション機構を含むと、より効果的な宝くじチケットにつながることを明らかにしている。
論文 参考訳(メタデータ) (2020-02-10T15:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。