論文の概要: Believe The HiPe: Hierarchical Perturbation for Fast and Robust
Explanation of Black Box Models
- arxiv url: http://arxiv.org/abs/2103.05108v1
- Date: Mon, 22 Feb 2021 18:22:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 09:03:34.405163
- Title: Believe The HiPe: Hierarchical Perturbation for Fast and Robust
Explanation of Black Box Models
- Title(参考訳): HiPeを信じる:ブラックボックスモデルの高速かつロバストな説明のための階層的摂動
- Authors: Jessica Cooper, Ognjen Arandjelovi\'c, David Harrison
- Abstract要約: サリエンシーマッピングは容易に解釈できる視覚的帰属法である。
モデル予測を説明するための非常に高速で完全にモデルに依存しない手法である階層摂動を提案する。
標準のベンチマークとデータセットを使用して、サリエンシーマップが既存のブラックボックスメソッドで生成されたものよりも競争力のある品質または優れた品質であることを示します。
- 参考スコア(独自算出の注目度): 16.96589831045415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the predictions made by Artificial Intelligence (AI) systems is
becoming more and more important as deep learning models are used for
increasingly complex and high-stakes tasks. Saliency mapping - an easily
interpretable visual attribution method - is one important tool for this, but
existing formulations are limited by either computational cost or architectural
constraints. We therefore propose Hierarchical Perturbation, a very fast and
completely model-agnostic method for explaining model predictions with robust
saliency maps. Using standard benchmarks and datasets, we show that our
saliency maps are of competitive or superior quality to those generated by
existing black-box methods - and are over 20x faster to compute.
- Abstract(参考訳): 人工知能(ai)システムによる予測を理解することは、深層学習モデルがますます複雑で高度なタスクに使われているため、ますます重要になっている。
簡易に解釈可能な視覚属性法であるサリエンシマッピングは、この方法にとって重要なツールであるが、既存の定式化は計算コストまたはアーキテクチャ上の制約によって制限される。
そこで我々は,モデル予測をロバストなサリエンシマップで説明するための,非常に高速かつ完全にモデルに依存しない階層摂動法を提案する。
標準的なベンチマークとデータセットを使用して、既存のブラックボックスメソッドが生成したマップよりも競争力や品質が優れており、計算が20倍以上高速であることを示す。
関連論文リスト
- Interpretable Machine Learning for Weather and Climate Prediction: A Survey [24.028385794099435]
気象予測に適用された現在の解釈可能な機械学習手法について概説する。
ツリーアンサンブルや説明可能なニューラルネットワークといったアーキテクチャを使って、スクラッチから本質的に解釈可能なモデルを設計する。
物理原理に沿ったより深い機械的解釈を達成するための研究課題について論じる。
論文 参考訳(メタデータ) (2024-03-24T14:23:35Z) - A Fast and Map-Free Model for Trajectory Prediction in Traffics [2.435517936694533]
本稿では,交通地図に依存しない効率的な軌道予測モデルを提案する。
注意機構、LSTM、グラフ畳み込みネットワーク、時間変換器を包括的に活用することにより、我々のモデルは全てのエージェントのリッチな動的および相互作用情報を学習することができる。
提案モデルでは,既存のマップフリー手法と比較して高い性能を達成し,Argoverseデータセット上のほとんどのマップベース最先端手法を超越する。
論文 参考訳(メタデータ) (2023-07-19T08:36:31Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - UKP-SQuARE v2 Explainability and Adversarial Attacks for Trustworthy QA [47.8796570442486]
質問回答システムは、現実の意思決定をサポートするアプリケーションにますますデプロイされています。
本質的に解釈可能なモデルやポストホックな説明可能性メソッドは、モデルがその予測にどのように到着するかをユーザが理解するのに役立ちます。
SQuAREの新バージョンであるSQuARE v2を導入し、モデルを比較するための説明可能性インフラストラクチャを提供する。
論文 参考訳(メタデータ) (2022-08-19T13:01:01Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Low-Rank Constraints for Fast Inference in Structured Models [110.38427965904266]
この研究は、大規模構造化モデルの計算とメモリの複雑さを低減するための単純なアプローチを示す。
言語モデリング,ポリフォニック・ミュージック・モデリング,教師なし文法帰納法,ビデオ・モデリングのためのニューラルパラメータ構造モデルを用いた実験により,我々の手法は大規模状態空間における標準モデルの精度と一致することを示した。
論文 参考訳(メタデータ) (2022-01-08T00:47:50Z) - Efficient Model-Based Reinforcement Learning through Optimistic Policy
Search and Planning [93.1435980666675]
最先端の強化学習アルゴリズムと楽観的な探索を容易に組み合わせることができることを示す。
我々の実験は、楽観的な探索が行動に罰則がある場合、学習を著しくスピードアップすることを示した。
論文 参考訳(メタデータ) (2020-06-15T18:37:38Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z) - Tidying Deep Saliency Prediction Architectures [6.613005108411055]
本稿では,入力特徴,マルチレベル統合,読み出しアーキテクチャ,損失関数の4つの主成分を同定する。
我々はSimpleNet と MDNSal という2つの新しいエンドツーエンドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-10T19:34:49Z) - Explainable Deep Modeling of Tabular Data using TableGraphNet [1.376408511310322]
付加的特徴属性の形で説明可能な予測を生成する新しいアーキテクチャを提案する。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-12T20:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。