論文の概要: Gradient-based explanations for Gaussian Process regression and
classification models
- arxiv url: http://arxiv.org/abs/2205.12797v1
- Date: Wed, 25 May 2022 14:11:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 18:53:24.850108
- Title: Gradient-based explanations for Gaussian Process regression and
classification models
- Title(参考訳): ガウス過程の回帰と分類モデルの勾配に基づく説明
- Authors: Sarem Seitz
- Abstract要約: ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
近年の進歩により、GPを用いた複雑なデータモデリングはますます実現可能になっている。
機械学習モデルの意思決定プロセスを人間に透過的にすることを目的とした、いわゆる説明可能なアプローチへの関心が高まっています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian Processes (GPs) have proven themselves as a reliable and effective
method in probabilistic Machine Learning. Thanks to recent and current
advances, modeling complex data with GPs is becoming more and more feasible.
Thus, these types of models are, nowadays, an interesting alternative to Neural
and Deep Learning methods, which are arguably the current state-of-the-art in
Machine Learning. For the latter, we see an increasing interest in so-called
explainable approaches - in essence methods that aim to make a Machine Learning
model's decision process transparent to humans. Such methods are particularly
needed when illogical or biased reasoning can lead to actual disadvantageous
consequences for humans. Ideally, explainable Machine Learning should help
detect such flaws in a model and aid a subsequent debugging process. One active
line of research in Machine Learning explainability are gradient-based methods,
which have been successfully applied to complex neural networks. Given that GPs
are closed under differentiation, gradient-based explainability for GPs appears
as a promising field of research. This paper is primarily focused on explaining
GP classifiers via gradients where, contrary to GP regression, derivative GPs
are not straightforward to obtain.
- Abstract(参考訳): ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
近年の進歩により、GPを用いた複雑なデータモデリングはますます実現可能になっている。
このように、これらのモデルは現在、機械学習における現在の最先端技術であるニューラルとディープラーニングの方法に代わる興味深い選択肢である。
後者については、いわゆる説明可能なアプローチ – 本質的には機械学習モデルの意思決定プロセスを人間に透過的にすることを目的とした方法 – に対する関心が高まっています。
このような手法は、非論理的または偏見的推論が人間にとって本当の不利な結果をもたらす場合に特に必要である。
理想的には、機械学習はモデルのそのような欠陥を検出し、その後のデバッグプロセスを支援する。
機械学習の説明可能性に関する活発な研究の1つは、複雑なニューラルネットワークにうまく適用された勾配に基づく方法である。
GPは微分の下で閉じているので、GPの勾配に基づく説明性は研究の有望な分野として現れる。
本稿では,GP回帰とは対照的に,微分GPは簡単には得られない勾配によるGP分類器の説明に主眼を置いている。
関連論文リスト
- Compactly-supported nonstationary kernels for computing exact Gaussian processes on big data [2.8377382540923004]
スパーシリティと非定常性の両方を発見およびエンコードできる代替カーネルを導出する。
我々は,既存の精密かつ近似的なGP法と比較して,新しいカーネルの性能を実証する。
また,1日当たりの最大気温を100万回以上測定し,時空間予測を行った。
論文 参考訳(メタデータ) (2024-11-07T20:07:21Z) - Amortized Variational Inference for Deep Gaussian Processes [0.0]
ディープガウス過程(DGP)はガウス過程(GP)の多層一般化である
本稿では,DGPに対して,各観測を変動パラメータにマッピングする推論関数を学習するアモータライズされた変分推論を導入する。
本手法は, 計算コストの低い従来の手法よりも, 同様に, あるいはより優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-18T20:23:27Z) - Wilsonian Renormalization of Neural Network Gaussian Processes [1.8749305679160366]
本稿では,ガウス過程(GP)回帰の文脈でWilsonian RGを実行するための実践的アプローチを示す。
GPカーネルの未学習モードを体系的に統合し,データをIRスケールに設定したGPのRGフローを得る。
このアプローチは、RGフローと学習可能モードと学習不可能モードとの自然な接続を提供することによって、RGとニューラルネットワークの間の構造的な類似性を越えている。
論文 参考訳(メタデータ) (2024-05-09T18:00:00Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Deep Gaussian Processes for Biogeophysical Parameter Retrieval and Model
Inversion [14.097477944789484]
本稿では,生物地球物理モデルインバージョンにおける深部ガウス過程 (DGP) の利用について紹介する。
浅いGPモデルとは異なり、DGPは複雑な(モジュラーで階層的な)プロセスを説明し、大きなデータセットによくスケールする効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-04-16T10:42:01Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - Transport Gaussian Processes for Regression [0.22843885788439797]
本稿では,GP,ワープGP,学生プロセスなどを含むプロセス構築手法を提案する。
私たちのアプローチはレイヤベースのモデルにインスパイアされ、各レイヤが生成されたプロセス上で特定のプロパティを変更する。
実世界のデータを用いた実験により,提案モデルの有効性を検証した。
論文 参考訳(メタデータ) (2020-01-30T17:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。