論文の概要: An Empirical Study of Explainable AI Techniques on Deep Learning Models
For Time Series Tasks
- arxiv url: http://arxiv.org/abs/2012.04344v1
- Date: Tue, 8 Dec 2020 10:33:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 07:43:02.685879
- Title: An Empirical Study of Explainable AI Techniques on Deep Learning Models
For Time Series Tasks
- Title(参考訳): 時系列タスクのディープラーニングモデルにおける説明可能なAI技術に関する実証的研究
- Authors: Udo Schlegel, Daniela Oelke, Daniel A. Keim, Mennatallah El-Assady
- Abstract要約: 機械学習のブラックボックスモデルの決定的説明は、しばしば説明可能なAI(XAI)技術を適用して生成される。
評価と検証は通常、人間による個々の画像やテキストの視覚的解釈によって達成される。
時系列画像やテキストデータ用に開発されたニューラルネットワークのアトリビューション手法を適用するための実証的研究とベンチマークフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.70973390984415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision explanations of machine learning black-box models are often
generated by applying Explainable AI (XAI) techniques. However, many proposed
XAI methods produce unverified outputs. Evaluation and verification are usually
achieved with a visual interpretation by humans on individual images or text.
In this preregistration, we propose an empirical study and benchmark framework
to apply attribution methods for neural networks developed for images and text
data on time series. We present a methodology to automatically evaluate and
rank attribution techniques on time series using perturbation methods to
identify reliable approaches.
- Abstract(参考訳): 機械学習ブラックボックスモデルの決定説明は、しばしば説明可能なAI(XAI)技術を適用して生成される。
しかし、多くのXAI手法が不確定な出力を生成する。
評価と検証は通常、人間による個々の画像やテキストの視覚的解釈によって達成される。
本稿では,時系列画像とテキストデータを対象に開発したニューラルネットワークに対して帰属法を適用するための経験的研究とベンチマークフレームワークを提案する。
本稿では,摂動法を用いて時系列の属性を自動的に評価・ランク付けする手法を提案する。
関連論文リスト
- AI-Aided Kalman Filters [65.35350122917914]
カルマンフィルタ(KF)とその変種は、信号処理において最も著名なアルゴリズムの一つである。
最近の進歩は、古典的なカルマン型フィルタリングでディープニューラルネットワーク(DNN)を融合させる可能性を示している。
本稿では,KF型アルゴリズムにAIを組み込むための設計アプローチについて,チュートリアル形式で概説する。
論文 参考訳(メタデータ) (2024-10-16T06:47:53Z) - Information Theoretic Text-to-Image Alignment [49.396917351264655]
本稿では,ステア画像生成のための情報理論アライメント尺度を用いた新しい手法を提案する。
提案手法は最先端の手法よりも優れているが,MIを推定するためには事前学習されたデノナイジングネットワークを必要としない。
論文 参考訳(メタデータ) (2024-05-31T12:20:02Z) - EXACT: Towards a platform for empirically benchmarking Machine Learning model explanation methods [1.6383837447674294]
本稿では、初期ベンチマークプラットフォームにおいて、様々なベンチマークデータセットと新しいパフォーマンス指標をまとめる。
我々のデータセットには、クラス条件の特徴に対する真実の説明が組み込まれています。
このプラットフォームは、それらが生成する説明の品質において、ポストホックなXAIメソッドのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-05-20T14:16:06Z) - A Deep Dive into Perturbations as Evaluation Technique for Time Series
XAI [13.269396832189754]
時系列データのためのXAIは、金融、医療、気候科学においてますます重要になっている。
XAI技術による属性などの説明の質を評価することは依然として困難である。
本稿では,時系列モデルから抽出した属性を評価するために摂動を用いた詳細な解析を行う。
論文 参考訳(メタデータ) (2023-07-11T08:26:08Z) - Quantitative Analysis of Primary Attribution Explainable Artificial
Intelligence Methods for Remote Sensing Image Classification [0.4532517021515834]
我々は、リモートセンシング画像分類を行うために最先端の機械学習アプローチを活用している。
我々は最も適切なXAI手法を選択するための洞察と勧告を提供する。
論文 参考訳(メタデータ) (2023-06-06T22:04:45Z) - Model-Based Deep Learning: On the Intersection of Deep Learning and
Optimization [101.32332941117271]
決定アルゴリズムは様々なアプリケーションで使われている。
数理モデルに頼らずにデータから調整された高度パラメトリックアーキテクチャを使用するディープラーニングアプローチが、ますます人気が高まっている。
モデルに基づく最適化とデータ中心のディープラーニングは、しばしば異なる規律とみなされる。
論文 参考訳(メタデータ) (2022-05-05T13:40:08Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Explainable Artificial Intelligence (XAI) on TimeSeries Data: A Survey [7.211834628554803]
時系列に適用される既存の説明可能なAI(XAI)手法の概要を紹介します。
また、これらの説明方法の影響を反映し、AIシステムに信頼と信頼を提供します。
論文 参考訳(メタデータ) (2021-04-02T09:14:00Z) - On the Post-hoc Explainability of Deep Echo State Networks for Time
Series Forecasting, Image and Video Classification [63.716247731036745]
エコー状態ネットワークは、主に学習アルゴリズムの単純さと計算効率のために、時間を通じて多くのスターを惹きつけてきた。
本研究では,時間系列,画像,映像データを用いた学習タスクに適用した場合のエコー状態ネットワークの説明可能性について検討した。
本研究では,これらの反復モデルが把握した知識に関する理解可能な情報を抽出する3つの手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T08:56:33Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。