論文の概要: Explainable Artificial Intelligence: How Subsets of the Training Data
Affect a Prediction
- arxiv url: http://arxiv.org/abs/2012.03625v1
- Date: Mon, 7 Dec 2020 12:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:47:29.620834
- Title: Explainable Artificial Intelligence: How Subsets of the Training Data
Affect a Prediction
- Title(参考訳): 説明可能な人工知能:トレーニングデータのサブセットが予測にどのように影響するか
- Authors: Andreas Brands{\ae}ter, Ingrid K. Glad
- Abstract要約: データサブセットの重要性をトレーニングするためにShapley値と呼ぶ新しい方法論を提案します。
提案手法を用いて,モデルの偏りや誤ったトレーニングデータを明らかにする方法を示す。
この説明は、アルゴリズムの内部動作をより認識し、同様の予測を生成するモデルがトレーニングデータの非常に異なる部分に基づいている方法を説明することを可能にすると主張しています。
- 参考スコア(独自算出の注目度): 2.3204178451683264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing interest in and demand for interpretations and
explanations of machine learning models and predictions in various application
areas. In this paper, we consider data-driven models which are already
developed, implemented and trained. Our goal is to interpret the models and
explain and understand their predictions. Since the predictions made by
data-driven models rely heavily on the data used for training, we believe
explanations should convey information about how the training data affects the
predictions. To do this, we propose a novel methodology which we call Shapley
values for training data subset importance. The Shapley value concept
originates from coalitional game theory, developed to fairly distribute the
payout among a set of cooperating players. We extend this to subset importance,
where a prediction is explained by treating the subsets of the training data as
players in a game where the predictions are the payouts. We describe and
illustrate how the proposed method can be useful and demonstrate its
capabilities on several examples. We show how the proposed explanations can be
used to reveal biasedness in models and erroneous training data. Furthermore,
we demonstrate that when predictions are accurately explained in a known
situation, then explanations of predictions by simple models correspond to the
intuitive explanations. We argue that the explanations enable us to perceive
more of the inner workings of the algorithms, and illustrate how models
producing similar predictions can be based on very different parts of the
training data. Finally, we show how we can use Shapley values for subset
importance to enhance our training data acquisition, and by this reducing
prediction error.
- Abstract(参考訳): 様々な応用分野において、機械学習モデルと予測の解釈と説明に対する関心と需要が高まっている。
本稿では,すでに開発,実装,訓練されているデータ駆動モデルについて考察する。
私たちのゴールはモデルを解釈し、予測を説明し、理解することです。
データ駆動モデルによる予測はトレーニングに使用されるデータに大きく依存するので、トレーニングデータが予測にどのように影響するかを説明すべきである。
そこで本研究では,データサブセット重要度をトレーニングするためにshapley値と呼ぶ新しい手法を提案する。
シェープリーの価値の概念は、協力的なプレイヤーのセット間で報酬を公平に分配するために開発された連立ゲーム理論に由来する。
我々はこれをサブセットの重要性にまで拡張し、トレーニングデータのサブセットを、その予測がペイアウトであるゲーム内のプレイヤーとして扱うことによって、予測を説明する。
本稿では,提案手法がいかに有用かを説明し,その能力をいくつかの例で示す。
提案手法を用いて,モデルの偏りや誤ったトレーニングデータを明らかにする方法を示す。
さらに、既知の状況下で予測が正確に説明される場合、単純なモデルによる予測の説明は直感的な説明と一致することを示す。
この説明により、アルゴリズムの内部動作をより知覚し、類似の予測を生成するモデルが、トレーニングデータの非常に異なる部分に基づいてどのようにできるのかを説明することができる。
最後に、Shapley値をサブセットの重要度に利用して、トレーニングデータ取得を強化し、この予測誤差を減らす方法を示す。
関連論文リスト
- Are Data-driven Explanations Robust against Out-of-distribution Data? [18.760475318852375]
エンドツーエンドのモデルに依存しない学習フレームワークであるDis Distributionally Robust Explanations (DRE)を提案する。
鍵となる考え方は、分配情報を完全に活用して、人間のアノテーションを使わずに説明の学習のための監視信号を提供することである。
提案手法は,分布変化に対する説明と予測の堅牢性の観点から,モデルの性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T02:02:08Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - Machine Learning in Sports: A Case Study on Using Explainable Models for
Predicting Outcomes of Volleyball Matches [0.0]
本稿では,ブラジルバレーボールリーグ(SuperLiga)における試合結果を予測するための2相説明可能な人工知能(XAI)アプローチについて検討する。
第1フェーズでは、解釈可能なルールベースのMLモデルを直接使用し、モデルの振る舞いをグローバルに理解する。
第2フェーズでは,SVM(Support Vector Machine)やDNN(Deep Neural Network)といった非線形モデルを構築し,バレーボールの試合結果の予測性能を得る。
論文 参考訳(メタデータ) (2022-06-18T18:09:15Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Training Deep Models to be Explained with Fewer Examples [40.58343220792933]
我々は、サンプル数を減らすために、スパース正規化器と同時に予測モデルと説明モデルを訓練する。
いくつかのデータセットを用いた実験により,提案手法は予測性能を維持しながら忠実性を向上させることを示した。
論文 参考訳(メタデータ) (2021-12-07T05:39:21Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。