論文の概要: Explainable Learning with Gaussian Processes
- arxiv url: http://arxiv.org/abs/2403.07072v1
- Date: Mon, 11 Mar 2024 18:03:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:50:50.627260
- Title: Explainable Learning with Gaussian Processes
- Title(参考訳): ガウス過程による説明可能な学習
- Authors: Kurt Butler, Guanchao Feng, Petar M. Djuric
- Abstract要約: 我々は、モデル不確実性の下で属性を定義するために原則化されたアプローチをとっており、既存の文献を拡張している。
GPRは非常に柔軟で非パラメトリックなアプローチであるが、特徴属性に対する解釈可能でクローズドな表現を導出できることを示す。
また、適用すれば、GPR属性の正確な式は、現在使われている近似よりも正確で計算コストが低いことも示している。
- 参考スコア(独自算出の注目度): 23.796560256071473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of explainable artificial intelligence (XAI) attempts to develop
methods that provide insight into how complicated machine learning methods make
predictions. Many methods of explanation have focused on the concept of feature
attribution, a decomposition of the model's prediction into individual
contributions corresponding to each input feature. In this work, we explore the
problem of feature attribution in the context of Gaussian process regression
(GPR). We take a principled approach to defining attributions under model
uncertainty, extending the existing literature. We show that although GPR is a
highly flexible and non-parametric approach, we can derive interpretable,
closed-form expressions for the feature attributions. When using integrated
gradients as an attribution method, we show that the attributions of a GPR
model also follow a Gaussian process distribution, which quantifies the
uncertainty in attribution arising from uncertainty in the model. We
demonstrate, both through theory and experimentation, the versatility and
robustness of this approach. We also show that, when applicable, the exact
expressions for GPR attributions are both more accurate and less
computationally expensive than the approximations currently used in practice.
The source code for this project is freely available under MIT license at
https://github.com/KurtButler/2024_attributions_paper.
- Abstract(参考訳): 説明可能な人工知能(XAI)の分野は、複雑な機械学習手法の予測方法に関する洞察を提供する方法の開発を試みる。
多くの説明方法は、各入力特徴に対応する個々の貢献にモデルの予測を分解する特徴帰属の概念に焦点を当てている。
本稿では,ガウス過程回帰(GPR)の文脈における特徴属性の問題について考察する。
モデルの不確実性の下で帰属を定義するための原則的なアプローチを取り、既存の文献を拡張している。
GPRは非常に柔軟で非パラメトリックなアプローチであるが、特徴属性に対する解釈可能でクローズドな表現を導出できることを示す。
統合勾配を帰属法として用いる場合, gprモデルの帰属はガウス過程分布にも従うことを示し, モデルの不確実性に起因する帰属の不確かさを定量化する。
我々は理論と実験の両方を通して、このアプローチの汎用性と堅牢性を示す。
また,適用すれば,gprの帰属に関する正確な表現は,現在使われている近似式よりも正確で計算コストが低いことも示している。
このプロジェクトのソースコードはMITライセンスでhttps://github.com/KurtButler/2024_attributions_paperで無償公開されている。
関連論文リスト
- Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Gaussian Process Probes (GPP) for Uncertainty-Aware Probing [61.91898698128994]
モデルによって表現される概念に関する不確実性を探索し、測定するための統一的でシンプルなフレームワークを導入する。
実験の結果,(1)ごく少数の例でも,モデルの概念表現を探索し,(2)認識の不確実性(プローブがどの程度確実か)と解離不確実性(モデルがファジィか)を正確に測定し,(3)これらの不確実性尺度と古典的手法を用いて分布データの検出を行うことができた。
論文 参考訳(メタデータ) (2023-05-29T17:00:16Z) - Self-Distillation for Gaussian Process Regression and Classification [0.0]
本稿では,知識蒸留の概念をガウスプロセス回帰(GPR)とガウスプロセス分類(GPC)に拡張する2つのアプローチを提案する。
データ中心のアプローチは、機械学習の現在の蒸留技術に似ており、教師による決定論的予測のモデルに適合する。
分布中心のアプローチは、次のイテレーションの完全な確率的後部を再利用する。
論文 参考訳(メタデータ) (2023-04-05T17:59:20Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Locally Interpretable Model Agnostic Explanations using Gaussian
Processes [2.9189409618561966]
LIME(Local Interpretable Model-Agnostic Explanations)は、単一インスタンスの予測を説明する一般的なテクニックである。
局所的解釈可能なモデルのガウス過程(GP)に基づくバリエーションを提案する。
提案手法は,LIMEに比べてはるかに少ないサンプルを用いて忠実な説明を生成可能であることを示す。
論文 参考訳(メタデータ) (2021-08-16T05:49:01Z) - An Intuitive Tutorial to Gaussian Process Regression [2.6839986755082728]
このチュートリアルは、ガウス過程回帰(GPR)の直感的な紹介を提供することを目的としている。
GPRモデルは、表現の柔軟性と、予測に対する不確実性を定量化する固有の能力のために、機械学習アプリケーションで広く使用されている。
論文 参考訳(メタデータ) (2020-09-22T23:57:30Z) - Gaussian Process Regression with Local Explanation [28.90948136731314]
本稿では,各サンプルの予測に寄与する特徴を明らかにするため,局所的な説明を伴うGPRを提案する。
提案モデルでは,各サンプルの予測と説明を,容易に解釈可能な局所線形モデルを用いて行う。
新しい試験サンプルでは, 対象変数と重みベクトルの値と不確かさを予測できる。
論文 参考訳(メタデータ) (2020-07-03T13:22:24Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。