論文の概要: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- arxiv url: http://arxiv.org/abs/2205.12797v2
- Date: Tue, 28 Jan 2025 20:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:52:23.914046
- Title: Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods
- Title(参考訳): 非ガウス確率を持つガウス過程に対する積分グラディエント属性
- Authors: Sarem Seitz,
- Abstract要約: ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
本稿では,非ガウス的確率でGPの積分勾配を計算する方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Gaussian Processes (GPs) have proven themselves as a reliable and effective method in probabilistic machine learning. Thanks to recent and current advances, modelling complex data with GPs is becoming more and more feasible. Thus, these types of models are, nowadays, an interesting alternative to neural and deep learning methods. For the latter, we see an increasing interest in so-called explainability approaches - in essence methods that aim to make a machine learning model's decision process transparent to humans. Such methods are particularly needed when illogical or biased reasoning can lead to actual disadvantageous consequences for humans. Ideally, explainable machine learning can help detecting respective flaws in a model and aid in a subsequent debugging process. One active line of research in explainable machine learning are gradient-based methods which have been successfully applied to complex neural networks. Given that GPs are closed under differentiation, gradient-based explainability, and particularly the concept of Integrated Gradients, for GPs appears as a promising field of research. While GP regression models with Gaussian likelihoods allow for a relatively straightforward approach to derive Integrated Gradients, the matter is more complicated for GPs with non-Gaussian likelihoods. As the latter typically require non-linear transformations of the GP the resulting processes won't adhere to the theoretical amenities to derive Integrated Gradients. Thus, this paper is concerned with providing a way to calculate Integrated Gradients for such cases. We discuss several common link-functions and derive both closed-form and approximate results.
- Abstract(参考訳): ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
近年の進歩により、GPによる複雑なデータのモデリングはますます実現可能になっている。
このように、これらのモデルは現在、ニューラルおよびディープラーニングの方法に代わる興味深い選択肢となっている。
後者については、いわゆる説明可能性アプローチ – 本質的には、マシンラーニングモデルの意思決定プロセスを人間に透過的にすることを目的とした方法 – に対する関心が高まっています。
このような手法は、非論理的または偏見的推論が人間にとって本当の不利な結果をもたらす場合に特に必要である。
理想的には、説明可能な機械学習は、モデルの個々の欠陥を検出し、その後のデバッグプロセスを支援する。
説明可能な機械学習における活発な研究の1つは、複雑なニューラルネットワークにうまく適用された勾配に基づく手法である。
GP が微分、勾配に基づく説明可能性、特に積分勾配の概念の下で閉じていることを考えると、GP は研究の有望な分野として現れる。
ガウス確率を持つGP回帰モデルは、積分勾配を導出する比較的単純なアプローチを可能にするが、この問題は非ガウス確率を持つGPにとってより複雑である。
後者は通常、GPの非線形変換を必要とするので、結果として得られる過程は積分勾配を導出する理論的なアメニティに従わない。
そこで本論文では,このような場合の積分勾配を計算する方法を提案する。
いくつかの共通リンク関数を議論し、閉形式と近似結果の両方を導出する。
関連論文リスト
- Compactly-supported nonstationary kernels for computing exact Gaussian processes on big data [2.8377382540923004]
スパーシリティと非定常性の両方を発見およびエンコードできる代替カーネルを導出する。
我々は,既存の精密かつ近似的なGP法と比較して,新しいカーネルの性能を実証する。
また,1日当たりの最大気温を100万回以上測定し,時空間予測を行った。
論文 参考訳(メタデータ) (2024-11-07T20:07:21Z) - Amortized Variational Inference for Deep Gaussian Processes [0.0]
ディープガウス過程(DGP)はガウス過程(GP)の多層一般化である
本稿では,DGPに対して,各観測を変動パラメータにマッピングする推論関数を学習するアモータライズされた変分推論を導入する。
本手法は, 計算コストの低い従来の手法よりも, 同様に, あるいはより優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-18T20:23:27Z) - Wilsonian Renormalization of Neural Network Gaussian Processes [1.8749305679160366]
本稿では,ガウス過程(GP)回帰の文脈でWilsonian RGを実行するための実践的アプローチを示す。
GPカーネルの未学習モードを体系的に統合し,データをIRスケールに設定したGPのRGフローを得る。
このアプローチは、RGフローと学習可能モードと学習不可能モードとの自然な接続を提供することによって、RGとニューラルネットワークの間の構造的な類似性を越えている。
論文 参考訳(メタデータ) (2024-05-09T18:00:00Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Deep Gaussian Processes for Biogeophysical Parameter Retrieval and Model
Inversion [14.097477944789484]
本稿では,生物地球物理モデルインバージョンにおける深部ガウス過程 (DGP) の利用について紹介する。
浅いGPモデルとは異なり、DGPは複雑な(モジュラーで階層的な)プロセスを説明し、大きなデータセットによくスケールする効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-04-16T10:42:01Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - Transport Gaussian Processes for Regression [0.22843885788439797]
本稿では,GP,ワープGP,学生プロセスなどを含むプロセス構築手法を提案する。
私たちのアプローチはレイヤベースのモデルにインスパイアされ、各レイヤが生成されたプロセス上で特定のプロパティを変更する。
実世界のデータを用いた実験により,提案モデルの有効性を検証した。
論文 参考訳(メタデータ) (2020-01-30T17:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。