論文の概要: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- arxiv url: http://arxiv.org/abs/2205.12797v3
- Date: Sun, 02 Mar 2025 07:29:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:11:40.544485
- Title: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- Title(参考訳): 非ガウス確率を持つガウス過程に対する積分グラディエント属性
- Authors: Sarem Seitz,
- Abstract要約: ガウス過程(GP)モデルは確率的機械学習において強力なツールである。
モデルの意思決定プロセスを透過的で説明可能なものにすることの必要性は、現在、研究の大きな焦点となっている。
本稿では,非ガウス的GPモデルに対して,積分グラディエントに基づく説明可能性を適用する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Gaussian Process (GP) models are a powerful tool in probabilistic machine learning with a solid theoretical foundation. Thanks to current advances, modeling complex data with GPs is becoming increasingly feasible, which makes them an interesting alternative to deep learning and related approaches. As the latter are getting more and more influential on society, the need for making a model's decision making process transparent and explainable is now a major focus of research. A major direction in interpretable machine learning is the use of gradient-based approaches, such as Integrated Gradients, to quantify feature attribution, locally for a given datapoint of interest. Since GPs and the behavior of their partial derivatives are well studied and straightforward to derive, studying gradient-based explainability for GPs is a promising direction of research. Unfortunately, partial derivatives for GPs become less trivial to handle when dealing with non-Gaussian target data as in classification or more sophisticated regression problems. This paper therefore proposes an approach for applying Integrated Gradient-based explainability to non-Gaussian GP models, offering both analytical and approximate solutions. This extends gradient-based explainability to probabilistic models with complex likelihoods to extend their practical applicability.
- Abstract(参考訳): ガウス過程(GP)モデルは確率論的機械学習の強力なツールであり、しっかりとした理論的基礎がある。
現在の進歩により、GPを用いた複雑なデータモデリングはますます実現可能になってきており、ディープラーニングや関連するアプローチの代替として興味深いものとなっている。
後者が社会に影響を及ぼすにつれて、モデルの決定プロセスの透明性と説明性の必要性が研究の大きな焦点となっている。
解釈可能な機械学習の主要な方向性は、特定のデータポイントに対して局所的に特徴属性を定量化するために、統合グラディエントのような勾配に基づくアプローチを使用することである。
GPとその部分微分の挙動はよく研究されており、導出が容易であるため、GPの勾配に基づく説明可能性の研究は研究の有望な方向である。
残念なことに、GP の部分微分は分類やより洗練された回帰問題のように非ガウス的対象データを扱う際には扱いにくい。
そこで本研究では,非ガウス的GPモデルに対して,解析解と近似解の両方を提供する統合的グラディエントに基づく説明可能性を適用するアプローチを提案する。
これは勾配に基づく説明可能性を拡張し、その実用性を拡張する複雑な可能性を持つ確率モデルに拡張する。
関連論文リスト
- Compactly-supported nonstationary kernels for computing exact Gaussian processes on big data [2.8377382540923004]
スパーシリティと非定常性の両方を発見およびエンコードできる代替カーネルを導出する。
我々は,既存の精密かつ近似的なGP法と比較して,新しいカーネルの性能を実証する。
また,1日当たりの最大気温を100万回以上測定し,時空間予測を行った。
論文 参考訳(メタデータ) (2024-11-07T20:07:21Z) - Amortized Variational Inference for Deep Gaussian Processes [0.0]
ディープガウス過程(DGP)はガウス過程(GP)の多層一般化である
本稿では,DGPに対して,各観測を変動パラメータにマッピングする推論関数を学習するアモータライズされた変分推論を導入する。
本手法は, 計算コストの低い従来の手法よりも, 同様に, あるいはより優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-18T20:23:27Z) - Wilsonian Renormalization of Neural Network Gaussian Processes [1.8749305679160366]
本稿では,ガウス過程(GP)回帰の文脈でWilsonian RGを実行するための実践的アプローチを示す。
GPカーネルの未学習モードを体系的に統合し,データをIRスケールに設定したGPのRGフローを得る。
このアプローチは、RGフローと学習可能モードと学習不可能モードとの自然な接続を提供することによって、RGとニューラルネットワークの間の構造的な類似性を越えている。
論文 参考訳(メタデータ) (2024-05-09T18:00:00Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Deep Gaussian Processes for Biogeophysical Parameter Retrieval and Model
Inversion [14.097477944789484]
本稿では,生物地球物理モデルインバージョンにおける深部ガウス過程 (DGP) の利用について紹介する。
浅いGPモデルとは異なり、DGPは複雑な(モジュラーで階層的な)プロセスを説明し、大きなデータセットによくスケールする効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-04-16T10:42:01Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - Transport Gaussian Processes for Regression [0.22843885788439797]
本稿では,GP,ワープGP,学生プロセスなどを含むプロセス構築手法を提案する。
私たちのアプローチはレイヤベースのモデルにインスパイアされ、各レイヤが生成されたプロセス上で特定のプロパティを変更する。
実世界のデータを用いた実験により,提案モデルの有効性を検証した。
論文 参考訳(メタデータ) (2020-01-30T17:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。