論文の概要: Counterfactual Gradients-based Quantification of Prediction Trust in Neural Networks
- arxiv url: http://arxiv.org/abs/2405.13758v1
- Date: Wed, 22 May 2024 15:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 23:25:17.870522
- Title: Counterfactual Gradients-based Quantification of Prediction Trust in Neural Networks
- Title(参考訳): ニューラルネットワークにおける予測信頼の非現実的勾配に基づく定量化
- Authors: Mohit Prabhushankar, Ghassan AlRegib,
- Abstract要約: 本稿では,大規模ニューラルネットワークの推論における分類信頼度尺度であるGradTrustを提案する。
我々は、画像Net検証データセットから50000ドルの画像上の誤予測率を検出する既存の手法よりも、GradTrustの方が優れていることを示す。
Kinetics-400データセット上で、GradTrustをビデオアクション認識に拡張する。
- 参考スコア(独自算出の注目度): 15.864519662894034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of deep neural networks in machine learning calls for an objective quantification of esoteric trust. In this paper we propose GradTrust, a classification trust measure for large-scale neural networks at inference. The proposed method utilizes variance of counterfactual gradients, i.e. the required changes in the network parameters if the label were different. We show that GradTrust is superior to existing techniques for detecting misprediction rates on $50000$ images from ImageNet validation dataset. Depending on the network, GradTrust detects images where either the ground truth is incorrect or ambiguous, or the classes are co-occurring. We extend GradTrust to Video Action Recognition on Kinetics-400 dataset. We showcase results on $14$ architectures pretrained on ImageNet and $5$ architectures pretrained on Kinetics-400. We observe the following: (i) simple methodologies like negative log likelihood and margin classifiers outperform state-of-the-art uncertainty and out-of-distribution detection techniques for misprediction rates, and (ii) the proposed GradTrust is in the Top-2 performing methods on $37$ of the considered $38$ experimental modalities. The code is available at: https://github.com/olivesgatech/GradTrust
- Abstract(参考訳): 機械学習におけるディープニューラルネットワークの普及は、難解な信頼の客観的定量化を要求する。
本稿では,大規模ニューラルネットワークの推論における分類信頼度尺度であるGradTrustを提案する。
提案手法は, ラベルが異なる場合のネットワークパラメータの変化を, 対物勾配のばらつきを利用して評価する。
我々は,画像Net検証データセットから50000ドルの画像上の誤予測率を検出する既存の手法よりも,GradTrustの方が優れていることを示す。
ネットワークによっては、GradTrustは、基底真理が正しくないか曖昧であるか、あるいはクラスが共起している画像を検出する。
Kinetics-400データセット上でGradTrustをビデオアクション認識に拡張する。
我々は、ImageNetで事前トレーニングされた14ドルアーキテクチャと、Kinetics-400で事前トレーニングされた5ドルアーキテクチャの結果を紹介する。
以下に示す。
一 負の対数確率及びマージン分類器のような簡易な手法は、誤算率に対する最先端の不確実性及びアウト・オブ・ディストリビューション検出技術より優れている。
(ii)提案されているGradTrustは、38ドルの実験的モダリティのうち、37ドルでトップ2のメソッドを実行している。
コードは、https://github.com/olivesgatech/GradTrust.comで入手できる。
関連論文リスト
- Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Why Out-of-distribution Detection in CNNs Does Not Like Mahalanobis --
and What to Use Instead [0.0]
高次元データにおける多くのOoD研究において、LOF法(Local Outlierness-Factor)法はパラメトリックなマハラノビス距離法よりも優れていた。
これにより、CNNの信頼性スコアを生成する非パラメトリックなLOFベースの手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T21:41:37Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Detecting Misclassification Errors in Neural Networks with a Gaussian
Process Model [20.948038514886377]
本稿では,誤分類誤りを検出するための定量的な尺度を新たに作成する枠組みを提案する。
このフレームワークREDは、ベース分類器の上にエラー検出器を構築し、ガウス過程を用いて検出スコアの不確かさを推定する。
論文 参考訳(メタデータ) (2020-10-05T15:01:30Z) - Certifying Confidence via Randomized Smoothing [151.67113334248464]
ランダムな平滑化は、高次元の分類問題に対して良好な証明されたロバスト性を保証することが示されている。
ほとんどの平滑化法は、下層の分類器が予測する信頼性に関する情報を与えてくれない。
そこで本研究では,スムーズな分類器の予測信頼度を評価するために,認証ラジイを生成する手法を提案する。
論文 参考訳(メタデータ) (2020-09-17T04:37:26Z) - GradAug: A New Regularization Method for Deep Neural Networks [19.239311087570318]
本稿では,ディープニューラルネットワークにおける過剰適合を緩和する新たな正規化手法を提案する。
提案手法は,ネットワークの生勾配に自己誘導障害を導入する。
GradAugは、ネットワークがより一般化され、より多様な表現を学習するのに役立つことを実証する。
論文 参考訳(メタデータ) (2020-06-14T19:30:34Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。