論文の概要: Interpretation of Time-Series Deep Models: A Survey
- arxiv url: http://arxiv.org/abs/2305.14582v1
- Date: Tue, 23 May 2023 23:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:07:07.530359
- Title: Interpretation of Time-Series Deep Models: A Survey
- Title(参考訳): 時系列深層モデルの解釈:調査
- Authors: Ziqi Zhao, Yucheng Shi, Shushan Wu, Fan Yang, Wenzhan Song, Ninghao
Liu
- Abstract要約: 本稿では,バックプロパゲーション,摂動,近似に基づく時系列モデルに対する多種多様なポストホック解釈手法を提案する。
また、人間の理解可能な情報がモデル内で設計される新しい解釈のカテゴリである、本質的に解釈可能なモデルにも焦点をあてたいと考えています。
- 参考スコア(独自算出の注目度): 27.582644914283136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models developed for time-series associated tasks have become
more widely researched nowadays. However, due to the unintuitive nature of
time-series data, the interpretability problem -- where we understand what is
under the hood of these models -- becomes crucial. The advancement of similar
studies in computer vision has given rise to many post-hoc methods, which can
also shed light on how to explain time-series models. In this paper, we present
a wide range of post-hoc interpretation methods for time-series models based on
backpropagation, perturbation, and approximation. We also want to bring focus
onto inherently interpretable models, a novel category of interpretation where
human-understandable information is designed within the models. Furthermore, we
introduce some common evaluation metrics used for the explanations, and propose
several directions of future researches on the time-series interpretability
problem. As a highlight, our work summarizes not only the well-established
interpretation methods, but also a handful of fairly recent and under-developed
techniques, which we hope to capture their essence and spark future endeavours
to innovate and improvise.
- Abstract(参考訳): 近年,時系列関連タスクのためのディープラーニングモデルが広く研究されている。
しかし、時系列データの直感的な性質のため、これらのモデルのボンネット下にあるものを理解するための解釈可能性の問題が重要になる。
コンピュータビジョンにおける同様の研究の進歩は多くのポストホックな手法を生み出し、時系列モデルを説明する方法にも光を当てることができる。
本稿では,バックプロパゲーション,摂動,近似に基づく時系列モデルに対する多種多様なポストホック解釈手法を提案する。
また、人間理解可能な情報をモデル内で設計する新しい解釈カテゴリーである、本質的に解釈可能なモデルにも焦点を当てたいと考えています。
さらに,説明に用いられる評価指標をいくつか紹介し,時系列解釈可能性問題に関する今後の研究の方向性について提案する。
私たちの研究は、確立された解釈方法だけでなく、その本質を捉え、イノベーションと即興化のための将来の努力を促すために、かなり最近で未開発のテクニックもまとめています。
関連論文リスト
- Spatio-Temporal Graphical Counterfactuals: An Overview [11.616701619068804]
反現実は、人工知能がデータから知識を学習する上で、重要かつ困難なトピックである。
本研究の目的は,思考を比較し,異なる対実モデル,理論,アプローチについて議論することである。
論文 参考訳(メタデータ) (2024-07-02T01:34:13Z) - Information Theoretic Text-to-Image Alignment [49.396917351264655]
本稿では,ステア画像生成のための情報理論アライメント尺度を用いた新しい手法を提案する。
提案手法は最先端の手法よりも優れているが,MIを推定するためには事前学習されたデノナイジングネットワークを必要としない。
論文 参考訳(メタデータ) (2024-05-31T12:20:02Z) - A Survey on Diffusion Models for Time Series and Spatio-Temporal Data [92.1255811066468]
時系列およびS時間データにおける拡散モデルの使用について概観し、それらをモデル、タスクタイプ、データモダリティ、実用的なアプリケーションドメインで分類する。
我々は拡散モデルを無条件型と条件付き型に分類し、時系列とS時間データを別々に議論する。
本調査は,医療,レコメンデーション,気候,エネルギー,オーディオ,交通など,さまざまな分野の応用を幅広くカバーしている。
論文 参考訳(メタデータ) (2024-04-29T17:19:40Z) - The Rise of Diffusion Models in Time-Series Forecasting [5.808096811856718]
本報告では,拡散モデルに関する背景情報を網羅し,条件付け手法を詳述し,時系列予測における使用状況について検討する。
この分析は、11の特定の時系列実装、それらの背後にある直観と理論、異なるデータセットに対する有効性、および互いに比較する。
論文 参考訳(メタデータ) (2024-01-05T11:35:10Z) - VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting [10.605719154114354]
時系列モデルは過去の予測を正確に予測することを目的としており、そこではビジネス上の意思決定のような重要な下流のタスクに予測が使用される。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを提案する。
論文 参考訳(メタデータ) (2022-05-31T15:43:46Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。