論文の概要: Explainable Artificial Intelligence (XAI) on TimeSeries Data: A Survey
- arxiv url: http://arxiv.org/abs/2104.00950v1
- Date: Fri, 2 Apr 2021 09:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 20:09:33.903540
- Title: Explainable Artificial Intelligence (XAI) on TimeSeries Data: A Survey
- Title(参考訳): 時系列データに基づく説明可能な人工知能(XAI)に関する調査
- Authors: Thomas Rojat, Rapha\"el Puget, David Filliat, Javier Del Ser, Rodolphe
Gelin, and Natalia D\'iaz-Rodr\'iguez
- Abstract要約: 時系列に適用される既存の説明可能なAI(XAI)手法の概要を紹介します。
また、これらの説明方法の影響を反映し、AIシステムに信頼と信頼を提供します。
- 参考スコア(独自算出の注目度): 7.211834628554803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of state of the art methods applied on time series consist of deep
learning methods that are too complex to be interpreted. This lack of
interpretability is a major drawback, as several applications in the real world
are critical tasks, such as the medical field or the autonomous driving field.
The explainability of models applied on time series has not gather much
attention compared to the computer vision or the natural language processing
fields. In this paper, we present an overview of existing explainable AI (XAI)
methods applied on time series and illustrate the type of explanations they
produce. We also provide a reflection on the impact of these explanation
methods to provide confidence and trust in the AI systems.
- Abstract(参考訳): 時系列に適用される技法のほとんどの状態は、解釈するには複雑すぎる深層学習法で構成されている。
この解釈性の欠如は、医療分野や自動運転分野など、現実世界のいくつかの応用が重要な課題であるため、大きな欠点である。
時系列に適用されたモデルの説明性は、コンピュータビジョンや自然言語処理分野に比べてあまり注目されていない。
本稿では,時系列に適用される既存の説明可能なai(xai)手法の概要と,その生成する説明の種類について述べる。
また、AIシステムに対する信頼と信頼を提供するために、これらの説明方法の影響について考察する。
関連論文リスト
- XAI for time-series classification leveraging image highlight methods [0.0699049312989311]
時系列分類タスクにおいて解釈可能性を提供する教師学生アーキテクチャ(蒸留モデル)にディープニューラルネットワーク(DNN)を提案する。
論文 参考訳(メタデータ) (2023-11-28T10:59:18Z) - Is Task-Agnostic Explainable AI a Myth? [0.0]
我々の研究は、現代の説明可能なAI(XAI)の課題を統一するための枠組みとして機能する。
我々は、XAI手法が機械学習モデルに補助的かつ潜在的に有用な出力を提供する一方で、研究者と意思決定者は、概念的および技術的な制限に留意すべきであることを示した。
本稿では,画像,テキスト,グラフデータにまたがる3つのXAI研究経路について検討する。
論文 参考訳(メタデータ) (2023-07-13T07:48:04Z) - Interpretation of Time-Series Deep Models: A Survey [27.582644914283136]
本稿では,バックプロパゲーション,摂動,近似に基づく時系列モデルに対する多種多様なポストホック解釈手法を提案する。
また、人間の理解可能な情報がモデル内で設計される新しい解釈のカテゴリである、本質的に解釈可能なモデルにも焦点をあてたいと考えています。
論文 参考訳(メタデータ) (2023-05-23T23:43:26Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - On the Post-hoc Explainability of Deep Echo State Networks for Time
Series Forecasting, Image and Video Classification [63.716247731036745]
エコー状態ネットワークは、主に学習アルゴリズムの単純さと計算効率のために、時間を通じて多くのスターを惹きつけてきた。
本研究では,時間系列,画像,映像データを用いた学習タスクに適用した場合のエコー状態ネットワークの説明可能性について検討した。
本研究では,これらの反復モデルが把握した知識に関する理解可能な情報を抽出する3つの手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T08:56:33Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - An Empirical Study of Explainable AI Techniques on Deep Learning Models
For Time Series Tasks [18.70973390984415]
機械学習のブラックボックスモデルの決定的説明は、しばしば説明可能なAI(XAI)技術を適用して生成される。
評価と検証は通常、人間による個々の画像やテキストの視覚的解釈によって達成される。
時系列画像やテキストデータ用に開発されたニューラルネットワークのアトリビューション手法を適用するための実証的研究とベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-08T10:33:57Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。