論文の概要: Thermodynamics of Interpretation
- arxiv url: http://arxiv.org/abs/2206.13475v1
- Date: Mon, 27 Jun 2022 17:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 18:01:41.040393
- Title: Thermodynamics of Interpretation
- Title(参考訳): 解釈の熱力学
- Authors: Shams Mehdi and Pratyush Tiwary
- Abstract要約: 熱力学的に説明可能なAIおよび他のブラックボックスパラダイム(TERP)の表現法を提案する。
TERPは、説明されるインスタンスの周りの小さな近傍で、ブラックボックスモデルの振る舞いを近似する、線形で局所的な代理モデルを構築することで機能する。
我々は、関連するドメインから来るデータセットに基づいてトレーニングされた4種類のブラックボックスモデルのクラスをうまく解釈し、一般に適用可能な方法としてTERPを検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past few years, different types of data-driven Artificial
Intelligence (AI) techniques have been widely adopted in various domains of
science for generating predictive black-box models. However, because of their
black-box nature, it is crucial to establish trust in these models before
accepting them as accurate. One way of achieving this goal is through the
implementation of a post-hoc interpretation scheme that can put forward the
reasons behind a black-box model prediction. In this work, we propose a
classical thermodynamics inspired approach for this purpose: Thermodynamically
Explainable Representations of AI and other black-box Paradigms (TERP). TERP
works by constructing a linear, local surrogate model that approximates the
behaviour of the black-box model within a small neighborhood around the
instance being explained. By employing a simple forward feature selection Monte
Carlo algorithm, TERP assigns an interpretability free energy score to all the
possible surrogate models in order to choose an optimal interpretation.
Additionally, we validate TERP as a generally applicable method by successfully
interpreting four different classes of black-box models trained on datasets
coming from relevant domains, including classifying images, predicting heart
disease and classifying biomolecular conformations.
- Abstract(参考訳): 過去数年間、さまざまなタイプのデータ駆動人工知能(AI)技術が、予測ブラックボックスモデルを生成するために様々な分野の科学で広く採用されてきた。
しかしながら、ブラックボックスの性質のため、これらのモデルに正確性を受け入れる前に信頼を確立することが不可欠である。
この目標を達成する1つの方法は、ブラックボックスモデル予測の背後にある理由を推論できるポストホックな解釈スキームの実装である。
本研究では,この目的のために古典的熱力学に基づくアプローチを提案する: 熱力学的に説明可能なAIおよび他のブラックボックスパラダイム(TERP)の表現。
TERPは、説明されるインスタンス周辺の小さな近傍でブラックボックスモデルの振る舞いを近似する線形局所代理モデルを構築することで機能する。
単純なフォワード特徴選択モンテカルロアルゴリズムを用いることで、TERPは最適解釈を選択するために可能な全てのサロゲートモデルに解釈可能性自由エネルギースコアを割り当てる。
さらに,画像の分類,心臓疾患の予測,生体分子のコンフォメーションの分類など,関連する領域のデータセットから学習したブラックボックスモデルの4つの異なるクラスをうまく解釈することにより,一般的に適用可能な手法としてterpを検証する。
関連論文リスト
- Faithful Model Explanations through Energy-Constrained Conformal
Counterfactuals [16.67633872254042]
ブラックボックスモデルを説明するための直感的で直感的な説明を提供する。
既存の作業は主に、入力データの分散方法を学ぶために代理モデルに依存しています。
そこで本研究では,モデルが許容する範囲でのみ有効な,エネルギー制約のあるコンフォーマル・カウンセリングを生成するための新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:24:44Z) - Discriminative Feature Attributions: Bridging Post Hoc Explainability
and Inherent Interpretability [29.459228981179674]
ポストホックの説明は、基礎となるタスクにとって重要でない、あるいは差別的でない機能に、誤って高い重要性がある。
一方、モデルアーキテクチャに説明を明示的にエンコードすることでこれらの問題を回避することができる。
本研究では,ディストラクタ消去に頑健なブラックボックスモデルを適応させる手法であるディストラクタ消去調整法(DiET)を提案する。
論文 参考訳(メタデータ) (2023-07-27T17:06:02Z) - BELLA: Black box model Explanations by Local Linear Approximations [10.05944106581306]
我々は、回帰ブラックボックスモデルの個々の予測を説明するために、決定論的モデルに依存しないポストホックアプローチであるBELLAを提案する。
BELLAは特徴空間で訓練された線形モデルという形で説明を提供する。
BELLAは事実と反事実の両方を説明することができる。
論文 参考訳(メタデータ) (2023-05-18T21:22:23Z) - Deep Grey-Box Modeling With Adaptive Data-Driven Models Toward
Trustworthy Estimation of Theory-Driven Models [88.63781315038824]
本稿では,ニューラルネットワークのアーキテクチャとトレーニング目標にわずかな変化を伴って,レギュレータの動作を経験的に分析することのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T10:42:26Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Physics-Constrained Predictive Molecular Latent Space Discovery with
Graph Scattering Variational Autoencoder [0.0]
我々は小データ構造における変分推論とグラフ理論に基づく分子生成モデルを開発する。
モデルの性能は、所望の目的特性を持つ分子を生成することによって評価される。
論文 参考訳(メタデータ) (2020-09-29T09:05:27Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。