論文の概要: Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities
- arxiv url: http://arxiv.org/abs/2105.02653v1
- Date: Thu, 29 Apr 2021 13:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 05:00:24.166907
- Title: Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities
- Title(参考訳): 修正分類:説明フィードバックを用いたベイズ的フレームワークによる分類能力の向上
- Authors: Yanzhe Bekkemoen, Helge Langseth
- Abstract要約: 説明は社会的であり、それは相互作用による知識の伝達である。
説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)の訓練により、これらの困難を克服します。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
- 参考スコア(独自算出の注目度): 2.0931163605360115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks (NNs) have shown high predictive performance, however, with
shortcomings. Firstly, the reasons behind the classifications are not fully
understood. Several explanation methods have been developed, but they do not
provide mechanisms for users to interact with the explanations. Explanations
are social, meaning they are a transfer of knowledge through interactions.
Nonetheless, current explanation methods contribute only to one-way
communication. Secondly, NNs tend to be overconfident, providing unreasonable
uncertainty estimates on out-of-distribution observations. We overcome these
difficulties by training a Bayesian convolutional neural network (CNN) that
uses explanation feedback. After training, the model presents explanations of
training sample classifications to an annotator. Based on the provided
information, the annotator can accept or reject the explanations by providing
feedback. Our proposed method utilizes this feedback for fine-tuning to correct
the model such that the explanations and classifications improve. We use
existing CNN architectures to demonstrate the method's effectiveness on one toy
dataset (decoy MNIST) and two real-world datasets (Dogs vs. Cats and ISIC skin
cancer). The experiments indicate that few annotated explanations and
fine-tuning epochs are needed to improve the model and predictive performance,
making the model more trustworthy and understandable.
- Abstract(参考訳): しかし、ニューラルネットワーク(NN)は高い予測性能を示しており、欠点がある。
第一に、分類の背後にある理由は完全には理解されていない。
いくつかの説明方法が開発されているが、ユーザが説明とやり取りするメカニズムを提供していない。
説明は社会的なものであり、相互に通じる知識の伝達である。
それでも、現在の説明手法は一方的なコミュニケーションにのみ寄与する。
第二に、nnは自信過剰になりがちで、分布外観測で不確実性の推定が不適切である。
我々は、説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)を訓練することで、これらの困難を克服する。
トレーニング後、モデルは、アノテータにサンプル分類を訓練する説明を示す。
提供された情報に基づいて、アノテーションはフィードバックを提供することで説明を受け入れたり拒否したりすることができる。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
既存のCNNアーキテクチャを用いて、1つのおもちゃのデータセット(デコイなMNIST)と2つの現実世界のデータセット(Dogs vs. CatsとISIC皮膚がん)でメソッドの有効性を実証する。
実験は、モデルと予測性能を改善するために、注釈付き説明と微調整の時期がほとんど必要であり、モデルの信頼性と理解性が向上していることを示している。
関連論文リスト
- Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - Augmenting Neural Networks with Priors on Function Values [22.776982718042962]
関数値に関する以前の知識は、しばしば自然科学で利用することができる。
BNNは、ユーザーが関数値を直接ではなく、ニューラルネットワークの重みについてのみ事前情報を指定できるようにする。
我々は,関数値自体の事前情報を付加したBNNの拡張手法を開発した。
論文 参考訳(メタデータ) (2022-02-10T02:24:15Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Why have a Unified Predictive Uncertainty? Disentangling it using Deep
Split Ensembles [39.29536042476913]
ブラックボックスニューラルネットワーク(NN)における不確実性の理解と定量化は、医療などの現実的な環境にデプロイする場合に不可欠である。
予測の不確かさを解消するために,概念的に単純な非ベイズ的アプローチ,ディープ・スプリット・アンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-25T19:15:26Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。