論文の概要: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- arxiv url: http://arxiv.org/abs/2205.12797v2
- Date: Tue, 28 Jan 2025 20:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:52:23.914046
- Title: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- Title(参考訳): 非ガウス確率を持つガウス過程に対する積分グラディエント属性
- Authors: Sarem Seitz,
- Abstract要約: ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
本稿では,非ガウス的確率でGPの積分勾配を計算する方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Gaussian Processes (GPs) have proven themselves as a reliable and effective method in probabilistic machine learning. Thanks to recent and current advances, modelling complex data with GPs is becoming more and more feasible. Thus, these types of models are, nowadays, an interesting alternative to neural and deep learning methods. For the latter, we see an increasing interest in so-called explainability approaches - in essence methods that aim to make a machine learning model's decision process transparent to humans. Such methods are particularly needed when illogical or biased reasoning can lead to actual disadvantageous consequences for humans. Ideally, explainable machine learning can help detecting respective flaws in a model and aid in a subsequent debugging process. One active line of research in explainable machine learning are gradient-based methods which have been successfully applied to complex neural networks. Given that GPs are closed under differentiation, gradient-based explainability, and particularly the concept of Integrated Gradients, for GPs appears as a promising field of research. While GP regression models with Gaussian likelihoods allow for a relatively straightforward approach to derive Integrated Gradients, the matter is more complicated for GPs with non-Gaussian likelihoods. As the latter typically require non-linear transformations of the GP the resulting processes won't adhere to the theoretical amenities to derive Integrated Gradients. Thus, this paper is concerned with providing a way to calculate Integrated Gradients for such cases. We discuss several common link-functions and derive both closed-form and approximate results.
- Abstract(参考訳): ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
近年の進歩により、GPによる複雑なデータのモデリングはますます実現可能になっている。
このように、これらのモデルは現在、ニューラルおよびディープラーニングの方法に代わる興味深い選択肢となっている。
後者については、いわゆる説明可能性アプローチ – 本質的には、マシンラーニングモデルの意思決定プロセスを人間に透過的にすることを目的とした方法 – に対する関心が高まっています。
このような手法は、非論理的または偏見的推論が人間にとって本当の不利な結果をもたらす場合に特に必要である。
理想的には、説明可能な機械学習は、モデルの個々の欠陥を検出し、その後のデバッグプロセスを支援する。
説明可能な機械学習における活発な研究の1つは、複雑なニューラルネットワークにうまく適用された勾配に基づく手法である。
GP が微分、勾配に基づく説明可能性、特に積分勾配の概念の下で閉じていることを考えると、GP は研究の有望な分野として現れる。
ガウス確率を持つGP回帰モデルは、積分勾配を導出する比較的単純なアプローチを可能にするが、この問題は非ガウス確率を持つGPにとってより複雑である。
後者は通常、GPの非線形変換を必要とするので、結果として得られる過程は積分勾配を導出する理論的なアメニティに従わない。
そこで本論文では,このような場合の積分勾配を計算する方法を提案する。
いくつかの共通リンク関数を議論し、閉形式と近似結果の両方を導出する。
関連論文リスト
- Data-Driven Abstractions via Binary-Tree Gaussian Processes for Formal Verification [0.22499166814992438]
ガウス過程(GP)回帰に基づく抽象的解は、量子化された誤差を持つデータから潜在システムの表現を学習する能力で人気を博している。
二分木ガウス過程(BTGP)により未知系のマルコフ連鎖モデルを構築することができることを示す。
BTGPの関数空間に真の力学が存在しない場合でも、統一公式による非局在誤差量子化を提供する。
論文 参考訳(メタデータ) (2024-07-15T11:49:44Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Linear Time GPs for Inferring Latent Trajectories from Neural Spike
Trains [7.936841911281107]
我々は,Hida-Mat'ernカーネルと共役変分推論(CVI)を利用した潜在GPモデルの一般的な推論フレームワークであるcvHMを提案する。
我々は任意の確率で線形時間複雑性を持つ潜在神経軌道の変分推定を行うことができる。
論文 参考訳(メタデータ) (2023-06-01T16:31:36Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Deep Gaussian Processes for Biogeophysical Parameter Retrieval and Model
Inversion [14.097477944789484]
本稿では,生物地球物理モデルインバージョンにおける深部ガウス過程 (DGP) の利用について紹介する。
浅いGPモデルとは異なり、DGPは複雑な(モジュラーで階層的な)プロセスを説明し、大きなデータセットによくスケールする効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-04-16T10:42:01Z) - GP-Tree: A Gaussian Process Classifier for Few-Shot Incremental Learning [23.83961717568121]
GP-Treeはガウス過程と深層カーネル学習を用いた多クラス分類の新しい手法である。
木に基づく階層モデルを構築し,各内部ノードがデータにGPを適合させる。
我々の手法は、クラス数とデータサイズの両方でうまくスケールする。
論文 参考訳(メタデータ) (2021-02-15T22:16:27Z) - Applying Genetic Programming to Improve Interpretability in Machine
Learning Models [0.3908287552267639]
我々は、GPX(Genematic Programming Explainer)という遺伝的プログラミングに基づくアプローチを提案する。
本手法は, 関心点近傍に位置する雑音を発生させ, その予測を説明すべきであり, 分析サンプルの局所的説明モデルに適合する。
以上の結果から,GPXは技術状況よりも複雑なモデルに対するより正確な理解を実現できることが示唆された。
論文 参考訳(メタデータ) (2020-05-18T16:09:49Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。