論文の概要: Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities
- arxiv url: http://arxiv.org/abs/2105.02653v1
- Date: Thu, 29 Apr 2021 13:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-08 05:00:24.166907
- Title: Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities
- Title(参考訳): 修正分類:説明フィードバックを用いたベイズ的フレームワークによる分類能力の向上
- Authors: Yanzhe Bekkemoen, Helge Langseth
- Abstract要約: 説明は社会的であり、それは相互作用による知識の伝達である。
説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)の訓練により、これらの困難を克服します。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
- 参考スコア(独自算出の注目度): 2.0931163605360115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks (NNs) have shown high predictive performance, however, with
shortcomings. Firstly, the reasons behind the classifications are not fully
understood. Several explanation methods have been developed, but they do not
provide mechanisms for users to interact with the explanations. Explanations
are social, meaning they are a transfer of knowledge through interactions.
Nonetheless, current explanation methods contribute only to one-way
communication. Secondly, NNs tend to be overconfident, providing unreasonable
uncertainty estimates on out-of-distribution observations. We overcome these
difficulties by training a Bayesian convolutional neural network (CNN) that
uses explanation feedback. After training, the model presents explanations of
training sample classifications to an annotator. Based on the provided
information, the annotator can accept or reject the explanations by providing
feedback. Our proposed method utilizes this feedback for fine-tuning to correct
the model such that the explanations and classifications improve. We use
existing CNN architectures to demonstrate the method's effectiveness on one toy
dataset (decoy MNIST) and two real-world datasets (Dogs vs. Cats and ISIC skin
cancer). The experiments indicate that few annotated explanations and
fine-tuning epochs are needed to improve the model and predictive performance,
making the model more trustworthy and understandable.
- Abstract(参考訳): しかし、ニューラルネットワーク(NN)は高い予測性能を示しており、欠点がある。
第一に、分類の背後にある理由は完全には理解されていない。
いくつかの説明方法が開発されているが、ユーザが説明とやり取りするメカニズムを提供していない。
説明は社会的なものであり、相互に通じる知識の伝達である。
それでも、現在の説明手法は一方的なコミュニケーションにのみ寄与する。
第二に、nnは自信過剰になりがちで、分布外観測で不確実性の推定が不適切である。
我々は、説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)を訓練することで、これらの困難を克服する。
トレーニング後、モデルは、アノテータにサンプル分類を訓練する説明を示す。
提供された情報に基づいて、アノテーションはフィードバックを提供することで説明を受け入れたり拒否したりすることができる。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
既存のCNNアーキテクチャを用いて、1つのおもちゃのデータセット(デコイなMNIST)と2つの現実世界のデータセット(Dogs vs. CatsとISIC皮膚がん)でメソッドの有効性を実証する。
実験は、モデルと予測性能を改善するために、注釈付き説明と微調整の時期がほとんど必要であり、モデルの信頼性と理解性が向上していることを示している。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - COCKATIEL: COntinuous Concept ranKed ATtribution with Interpretable
ELements for explaining neural net classifiers on NLP tasks [3.475906200620518]
COCKATIELは、新しい、ポストホック、コンセプトベース、モデルに依存しないXAI技術である。
NLP分類タスクでトレーニングされたニューラルネットモデルの最後の層から意味のある説明を生成する。
基礎となるモデルの精度を損なうことなく、新しいモデルをトレーニングする必要もない。
論文 参考訳(メタデータ) (2023-05-11T12:22:20Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - Causality for Inherently Explainable Transformers: CAT-XPLAIN [16.85887568521622]
我々は、最近提案されたケースワイズ・ポストホック因果説明法を用いて、既存のトランスフォーマーアーキテクチャを本質的に説明可能にする。
我々のモデルは、与えられたインスタンスの入力空間におけるトップ$k$領域の形で、その決定に寄与する説明を提供する。
論文 参考訳(メタデータ) (2022-06-29T18:11:01Z) - Learning and Evaluating Graph Neural Network Explanations based on
Counterfactual and Factual Reasoning [46.20269166675735]
グラフニューラルネットワーク(GNN)は、構造データに対する学習表現に大きな利点を示している。
本稿では、因果推論理論から推論した対実的・実的(CF2)の知見を取り入れ、学習と評価の両問題を解き明かす。
基礎構造を必要とせずに生成した説明を定量的に評価するために,実測値と実測値に基づいてメトリクスを設計する。
論文 参考訳(メタデータ) (2022-02-17T18:30:45Z) - Augmenting Neural Networks with Priors on Function Values [22.776982718042962]
関数値に関する以前の知識は、しばしば自然科学で利用することができる。
BNNは、ユーザーが関数値を直接ではなく、ニューラルネットワークの重みについてのみ事前情報を指定できるようにする。
我々は,関数値自体の事前情報を付加したBNNの拡張手法を開発した。
論文 参考訳(メタデータ) (2022-02-10T02:24:15Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Behavior of k-NN as an Instance-Based Explanation Method [26.27046865670577]
インスタンスベースの説明メソッドは、テストサンプルの予測を説明するために、トレーニングセットから選択インスタンスを返す人気型である。
本論文は, 実例に基づく説明手法の自然競合であるk-NNに対して, この問題に答えるものである。
論文 参考訳(メタデータ) (2021-09-14T22:32:19Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - Why have a Unified Predictive Uncertainty? Disentangling it using Deep
Split Ensembles [39.29536042476913]
ブラックボックスニューラルネットワーク(NN)における不確実性の理解と定量化は、医療などの現実的な環境にデプロイする場合に不可欠である。
予測の不確かさを解消するために,概念的に単純な非ベイズ的アプローチ,ディープ・スプリット・アンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-25T19:15:26Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。