論文の概要: Learning Global Transparent Models Consistent with Local Contrastive
Explanations
- arxiv url: http://arxiv.org/abs/2002.08247v4
- Date: Thu, 29 Oct 2020 00:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 12:51:42.904366
- Title: Learning Global Transparent Models Consistent with Local Contrastive
Explanations
- Title(参考訳): 局所的コントラスト説明を伴うグローバル透明モデル学習
- Authors: Tejaswini Pedapati, Avinash Balakrishnan, Karthikeyan Shanmugam and
Amit Dhurandhar
- Abstract要約: ブラックボックスモデルについて,局所的な対照的な説明からカスタム機能を作成し,これらだけでグローバルに透過的なモデルをトレーニングする。
そこで本研究では,ブラックボックスモデルの局所的な対照的な説明からカスタムな特徴を創出し,その上にグローバルな透明なモデルをトレーニングする手法を提案する。
- 参考スコア(独自算出の注目度): 34.86847988157447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a rich and growing literature on producing local
contrastive/counterfactual explanations for black-box models (e.g. neural
networks).
In these methods, for an input, an explanation is in the form of a contrast
point differing in very few features from the original input and lying in a
different class. Other works try to build globally interpretable models like
decision trees and rule lists based on the data using actual labels or based on
the black-box models predictions. Although these interpretable global models
can be useful, they may not be consistent with local explanations from a
specific black-box of choice. In this work, we explore the question: Can we
produce a transparent global model that is simultaneously accurate and
consistent with the local (contrastive) explanations of the black-box model? We
introduce a natural local consistency metric that quantifies if the local
explanations and predictions of the black-box model are also consistent with
the proxy global transparent model. Based on a key insight we propose a novel
method where we create custom boolean features from sparse local contrastive
explanations of the black-box model and then train a globally transparent model
on just these, and showcase empirically that such models have higher local
consistency compared with other known strategies, while still being close in
performance to models that are trained with access to the original data.
- Abstract(参考訳): ブラックボックスモデル(ニューラルネットワークなど)の局所的なコントラスト/カントリーファクチュアルな説明を生産する、リッチで成長中の文献がある。
これらの方法では、入力に対して、説明は、元の入力とほとんど特徴の異なるコントラストポイントの形で行われ、異なるクラスに横たわる。
他の作品は、実際のラベルを使ったデータやブラックボックスモデルの予測に基づいて、決定木やルールリストのようなグローバルに解釈可能なモデルを構築しようとする。
これらの解釈可能なグローバルモデルは有用であるが、特定のブラックボックスからの局所的な説明とは一致しないかもしれない。
ブラックボックスモデルの局所的(対照的な)説明と同時に正確で整合性のある透明なグローバルモデルを作成することができるか?
我々は,ブラックボックスモデルの局所的説明と予測がプロキシグローバル透過モデルと一致しているかどうかを定量化する自然局所的一貫性指標を導入する。
重要な洞察に基づいて,ブラックボックスモデルのスパースな局所的対比説明からカスタムブール機能を作成し,それらに基づいてグローバルに透過的なモデルを学習し,そのモデルが他の既知の戦略よりも高い局所的一貫性を持ちながら,元のデータへのアクセスでトレーニングされたモデルと性能が近いことを実証的に示す,新たな手法を提案する。
関連論文リスト
- Consistency and Uncertainty: Identifying Unreliable Responses From Black-Box Vision-Language Models for Selective Visual Question Answering [46.823415680462844]
本研究では,現実的なブラックボックス環境下での視覚言語モデルの選択的予測の可能性について検討する。
そこで本研究では,ブラックボックスの視覚言語モデルから信頼できない応答を識別するために,テキストの一貫性の原理を用いることを提案する。
論文 参考訳(メタデータ) (2024-04-16T00:28:26Z) - Discriminative Feature Attributions: Bridging Post Hoc Explainability
and Inherent Interpretability [29.459228981179674]
ポストホックの説明は、基礎となるタスクにとって重要でない、あるいは差別的でない機能に、誤って高い重要性がある。
一方、モデルアーキテクチャに説明を明示的にエンコードすることでこれらの問題を回避することができる。
本研究では,ディストラクタ消去に頑健なブラックボックスモデルを適応させる手法であるディストラクタ消去調整法(DiET)を提案する。
論文 参考訳(メタデータ) (2023-07-27T17:06:02Z) - DREAM: Domain-free Reverse Engineering Attributes of Black-box Model [51.37041886352823]
ブラックボックス対象モデルの属性をドメインに依存しないリバースエンジニアリングの新しい問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないモデルを学ぶ。
論文 参考訳(メタデータ) (2023-07-20T16:25:58Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Can Explanations Be Useful for Calibrating Black Box Models? [31.473798197405948]
我々は,新しいドメインの例から,ブラックボックスモデルの性能を新しいドメインで改善する方法について検討する。
提案手法はまず,タスクに対する人間の直感とモデル属性を組み合わせた一連の特徴を抽出する。
キャリブレーション機能はタスク間である程度移動し、効果的に利用する方法について光を当てている。
論文 参考訳(メタデータ) (2021-10-14T17:48:16Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - GLocalX -- From Local to Global Explanations of Black Box AI Models [12.065358125757847]
GLocalXは"ローカルファースト"モデルに依存しない説明法である。
私たちのゴールは、与えられたブラックボックスをエミュレートする正確かつ単純な解釈可能なモデルを学び、可能であれば完全に置き換えることです。
論文 参考訳(メタデータ) (2021-01-19T15:26:09Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z) - Interpretable Companions for Black-Box Models [13.39487972552112]
事前訓練されたブラックボックス分類器に対する解釈可能な共役モデルを提案する。
任意の入力に対して、ユーザーは高い精度でブラックボックスモデルから予測を受け付けるか、説明をしないか、または少し低い精度で解釈可能な予測を得るためにコンパニオンルールを使用することができる。
コンパニオンモデルは、データとブラックボックスモデルの予測から訓練され、透明性-精度曲線とモデルの複雑さの下で、客観的な結合領域を持つ。
論文 参考訳(メタデータ) (2020-02-10T01:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。