論文の概要: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- arxiv url: http://arxiv.org/abs/2205.12797v3
- Date: Sun, 02 Mar 2025 07:29:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:36.503605
- Title: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- Title(参考訳): 非ガウス確率を持つガウス過程に対する積分グラディエント属性
- Authors: Sarem Seitz,
- Abstract要約: ガウス過程(GP)モデルは確率的機械学習において強力なツールである。
モデルの意思決定プロセスを透過的で説明可能なものにすることの必要性は、現在、研究の大きな焦点となっている。
本稿では,非ガウス的GPモデルに対して,積分グラディエントに基づく説明可能性を適用する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian Process (GP) models are a powerful tool in probabilistic machine learning with a solid theoretical foundation. Thanks to current advances, modeling complex data with GPs is becoming increasingly feasible, which makes them an interesting alternative to deep learning and related approaches. As the latter are getting more and more influential on society, the need for making a model's decision making process transparent and explainable is now a major focus of research. A major direction in interpretable machine learning is the use of gradient-based approaches, such as Integrated Gradients, to quantify feature attribution, locally for a given datapoint of interest. Since GPs and the behavior of their partial derivatives are well studied and straightforward to derive, studying gradient-based explainability for GPs is a promising direction of research. Unfortunately, partial derivatives for GPs become less trivial to handle when dealing with non-Gaussian target data as in classification or more sophisticated regression problems. This paper therefore proposes an approach for applying Integrated Gradient-based explainability to non-Gaussian GP models, offering both analytical and approximate solutions. This extends gradient-based explainability to probabilistic models with complex likelihoods to extend their practical applicability.
- Abstract(参考訳): ガウス過程(GP)モデルは確率論的機械学習の強力なツールであり、しっかりとした理論的基礎がある。
現在の進歩により、GPを用いた複雑なデータモデリングはますます実現可能になってきており、ディープラーニングや関連するアプローチの代替として興味深いものとなっている。
後者が社会に影響を及ぼすにつれて、モデルの決定プロセスの透明性と説明性の必要性が研究の大きな焦点となっている。
解釈可能な機械学習の主要な方向性は、特定のデータポイントに対して局所的に特徴属性を定量化するために、統合グラディエントのような勾配に基づくアプローチを使用することである。
GPとその部分微分の挙動はよく研究されており、導出が容易であるため、GPの勾配に基づく説明可能性の研究は研究の有望な方向である。
残念なことに、GP の部分微分は分類やより洗練された回帰問題のように非ガウス的対象データを扱う際には扱いにくい。
そこで本研究では,非ガウス的GPモデルに対して,解析解と近似解の両方を提供する統合的グラディエントに基づく説明可能性を適用するアプローチを提案する。
これは勾配に基づく説明可能性を拡張し、その実用性を拡張する複雑な可能性を持つ確率モデルに拡張する。
関連論文リスト
- Amortized Variational Inference for Deep Gaussian Processes [0.0]
ディープガウス過程(DGP)はガウス過程(GP)の多層一般化である
本稿では,DGPに対して,各観測を変動パラメータにマッピングする推論関数を学習するアモータライズされた変分推論を導入する。
本手法は, 計算コストの低い従来の手法よりも, 同様に, あるいはより優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-18T20:23:27Z) - Data-Driven Abstractions via Binary-Tree Gaussian Processes for Formal Verification [0.22499166814992438]
ガウス過程(GP)回帰に基づく抽象的解は、量子化された誤差を持つデータから潜在システムの表現を学習する能力で人気を博している。
二分木ガウス過程(BTGP)により未知系のマルコフ連鎖モデルを構築することができることを示す。
BTGPの関数空間に真の力学が存在しない場合でも、統一公式による非局在誤差量子化を提供する。
論文 参考訳(メタデータ) (2024-07-15T11:49:44Z) - Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Linear Time GPs for Inferring Latent Trajectories from Neural Spike
Trains [7.936841911281107]
我々は,Hida-Mat'ernカーネルと共役変分推論(CVI)を利用した潜在GPモデルの一般的な推論フレームワークであるcvHMを提案する。
我々は任意の確率で線形時間複雑性を持つ潜在神経軌道の変分推定を行うことができる。
論文 参考訳(メタデータ) (2023-06-01T16:31:36Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Deep Gaussian Processes for Biogeophysical Parameter Retrieval and Model
Inversion [14.097477944789484]
本稿では,生物地球物理モデルインバージョンにおける深部ガウス過程 (DGP) の利用について紹介する。
浅いGPモデルとは異なり、DGPは複雑な(モジュラーで階層的な)プロセスを説明し、大きなデータセットによくスケールする効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-04-16T10:42:01Z) - GP-Tree: A Gaussian Process Classifier for Few-Shot Incremental Learning [23.83961717568121]
GP-Treeはガウス過程と深層カーネル学習を用いた多クラス分類の新しい手法である。
木に基づく階層モデルを構築し,各内部ノードがデータにGPを適合させる。
我々の手法は、クラス数とデータサイズの両方でうまくスケールする。
論文 参考訳(メタデータ) (2021-02-15T22:16:27Z) - Modulating Scalable Gaussian Processes for Expressive Statistical
Learning [25.356503463916816]
ガウス過程(GP)は、入力と出力の間の統計的関係を学ぶことに興味がある。
本稿では,非定常ヘテロセダスティックGP,GPと潜在GPの混合を含む,スケーラブルなGPパラダイムについて検討し,よりリッチでガウス的でない統計表現を学習するために,出力や入力を変調する潜在変数を導入する。
論文 参考訳(メタデータ) (2020-08-29T06:41:45Z) - Applying Genetic Programming to Improve Interpretability in Machine
Learning Models [0.3908287552267639]
我々は、GPX(Genematic Programming Explainer)という遺伝的プログラミングに基づくアプローチを提案する。
本手法は, 関心点近傍に位置する雑音を発生させ, その予測を説明すべきであり, 分析サンプルの局所的説明モデルに適合する。
以上の結果から,GPXは技術状況よりも複雑なモデルに対するより正確な理解を実現できることが示唆された。
論文 参考訳(メタデータ) (2020-05-18T16:09:49Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z) - Transport Gaussian Processes for Regression [0.22843885788439797]
本稿では,GP,ワープGP,学生プロセスなどを含むプロセス構築手法を提案する。
私たちのアプローチはレイヤベースのモデルにインスパイアされ、各レイヤが生成されたプロセス上で特定のプロパティを変更する。
実世界のデータを用いた実験により,提案モデルの有効性を検証した。
論文 参考訳(メタデータ) (2020-01-30T17:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。