論文の概要: Self-explaining variational posterior distributions for Gaussian Process
models
- arxiv url: http://arxiv.org/abs/2109.03708v1
- Date: Wed, 8 Sep 2021 15:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 18:09:17.861656
- Title: Self-explaining variational posterior distributions for Gaussian Process
models
- Title(参考訳): ガウス過程モデルに対する自己説明変分後分布
- Authors: Sarem Seitz
- Abstract要約: 本稿では,変分ガウスプロセセスの概念について紹介する。
提案した自己説明型変分後分布は,対象関数に関する一般的な事前知識と,個々の特徴の寄与に関する事前知識の両方を組み込むことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian methods have become a popular way to incorporate prior knowledge and
a notion of uncertainty into machine learning models. At the same time, the
complexity of modern machine learning makes it challenging to comprehend a
model's reasoning process, let alone express specific prior assumptions in a
rigorous manner. While primarily interested in the former issue, recent
developments intransparent machine learning could also broaden the range of
prior information that we can provide to complex Bayesian models. Inspired by
the idea of self-explaining models, we introduce a corresponding concept for
variational GaussianProcesses. On the one hand, our contribution improves
transparency for these types of models. More importantly though, our proposed
self-explaining variational posterior distribution allows to incorporate both
general prior knowledge about a target function as a whole and prior knowledge
about the contribution of individual features.
- Abstract(参考訳): ベイズ的手法は、事前知識と不確実性の概念を機械学習モデルに組み込む一般的な方法となっている。
同時に、現代の機械学習の複雑さは、厳密な方法で特定の前提を表現することはもちろん、モデルの推論プロセスを理解するのを難しくする。
主に以前の問題に関心があるが、近年の透明機械学習は、複雑なベイズモデルに提供可能な事前情報の範囲を広げる可能性がある。
自己説明型モデルの概念に着想を得て,変分ガウスプロセセスの概念を導入する。
一方、私たちの貢献はこの種のモデルの透明性を改善します。
さらに,提案する自己説明的変分後分布は,対象関数に関する一般的な事前知識と,個々の特徴の寄与に関する事前知識の両方を取り入れることができる。
関連論文リスト
- Generally-Occurring Model Change for Robust Counterfactual Explanations [1.3121410433987561]
モデル変更に対する対実的説明生成アルゴリズムの堅牢性について検討する。
本稿では,まず自然発生モデル変化の概念を一般化する。
また、モデルパラメータ変化のより一般的な概念である、モデル変化の一般発生についても提案する。
論文 参考訳(メタデータ) (2024-07-16T06:44:00Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - A simple probabilistic neural network for machine understanding [0.0]
本稿では,機械理解のためのモデルとして,確率的ニューラルネットワークと内部表現の固定化について論じる。
内部表現は、それが最大関係の原理と、どのように異なる特徴が組み合わされるかについての最大無知を満たすことを要求して導出する。
このアーキテクチャを持つ学習機械は、パラメータやデータの変化に対する表現の連続性など、多くの興味深い特性を享受している、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T13:00:15Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Learning Invariances for Interpretability using Supervised VAE [0.0]
我々はモデルを解釈する手段としてモデル不変性を学習する。
可変オートエンコーダ(VAE)の教師型形式を提案する。
我々は、我々のモデルと特徴属性の手法を組み合わせることで、モデルの意思決定プロセスについてよりきめ細やかな理解を得られることを示す。
論文 参考訳(メタデータ) (2020-07-15T10:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。