論文の概要: CONFINE: Conformal Prediction for Interpretable Neural Networks
- arxiv url: http://arxiv.org/abs/2406.00539v1
- Date: Sat, 1 Jun 2024 19:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 06:25:48.259174
- Title: CONFINE: Conformal Prediction for Interpretable Neural Networks
- Title(参考訳): CONFINE: 解釈可能なニューラルネットワークのコンフォーマル予測
- Authors: Linhui Huang, Sayeri Lala, Niraj K. Jha,
- Abstract要約: 解釈型ニューラルネットワーク(CONFINE)のコンフォーマル予測について紹介する。
CONFINEは、モデルの透明性と信頼性を高めるために、点予測の代わりに統計的に堅牢な不確実性推定を備えた予測セットを生成する。
この結果から,CONFINEは従来の手法よりも最大3.3%高い精度を達成できることが判明した。
- 参考スコア(独自算出の注目度): 2.7477752332019256
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks exhibit remarkable performance, yet their black-box nature limits their utility in fields like healthcare where interpretability is crucial. Existing explainability approaches often sacrifice accuracy and lack quantifiable measures of prediction uncertainty. In this study, we introduce Conformal Prediction for Interpretable Neural Networks (CONFINE), a versatile framework that generates prediction sets with statistically robust uncertainty estimates instead of point predictions to enhance model transparency and reliability. CONFINE not only provides example-based explanations and confidence estimates for individual predictions but also boosts accuracy by up to 3.6%. We define a new metric, correct efficiency, to evaluate the fraction of prediction sets that contain precisely the correct label and show that CONFINE achieves correct efficiency of up to 3.3% higher than the original accuracy, matching or exceeding prior methods. CONFINE's marginal and class-conditional coverages attest to its validity across tasks spanning medical image classification to language understanding. Being adaptable to any pre-trained classifier, CONFINE marks a significant advance towards transparent and trustworthy deep learning applications in critical domains.
- Abstract(参考訳): ディープニューラルネットワークは、優れたパフォーマンスを示すが、そのブラックボックスの性質は、解釈可能性が不可欠である医療などの分野において、その実用性を制限している。
既存の説明可能性のアプローチは、しばしば正確さを犠牲にして、予測の不確実性の定量化を欠いている。
本研究では、モデル透明性と信頼性を高めるために、点予測の代わりに統計的に堅牢な不確実性推定を伴う予測セットを生成する多目的フレームワークCONFINE(Conformal Prediction for Interpretable Neural Networks)を提案する。
CONFINEは、個々の予測に対してサンプルベースの説明と信頼度の推定を提供するだけでなく、精度を最大3.6%向上させる。
正確なラベルを含む予測集合の分数を評価するための新しい計量である正しい効率を定義し、CONFINEが元の精度よりも最大3.3%高い精度を達成することを示す。
CONFINEの限界条件とクラス条件のカバレッジは、医療画像分類から言語理解まで、その妥当性を証明している。
CONFINEは、事前訓練された分類器に適応可能であるため、クリティカルドメインにおける透明で信頼性の高いディープラーニングアプリケーションへの大きな進歩を示している。
関連論文リスト
- Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Spatial-Aware Conformal Prediction for Trustworthy Hyperspectral Image Classification [39.71307720326761]
ハイパースペクトル画像(HSI)分類では、各ピクセルに固有のラベルを割り当て、様々な土地被覆カテゴリを識別する。
深部分類器はこの分野で高い予測精度を達成したが、予測の信頼性を定量化する能力は欠如している。
本研究では,HSIデータに特化して設計されたコンフォメーション予測フレームワークであるSpatial-Aware Conformal Prediction (textttSACP)を紹介する。
論文 参考訳(メタデータ) (2024-09-02T13:11:38Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - The Benefit of the Doubt: Uncertainty Aware Sensing for Edge Computing
Platforms [10.86298377998459]
組込みエッジシステム上に展開されたNNにおける予測不確実性推定のための効率的なフレームワークを提案する。
フレームワークは1つのフォワードパスのみに基づいて予測の不確実性を提供するために、ゼロから構築されている。
提案手法は, 堅牢かつ正確な不確実性推定だけでなく, システム性能の点で最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-02-11T11:44:32Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。