論文の概要: Interpretation of Time-Series Deep Models: A Survey
- arxiv url: http://arxiv.org/abs/2305.14582v1
- Date: Tue, 23 May 2023 23:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:07:07.530359
- Title: Interpretation of Time-Series Deep Models: A Survey
- Title(参考訳): 時系列深層モデルの解釈:調査
- Authors: Ziqi Zhao, Yucheng Shi, Shushan Wu, Fan Yang, Wenzhan Song, Ninghao
Liu
- Abstract要約: 本稿では,バックプロパゲーション,摂動,近似に基づく時系列モデルに対する多種多様なポストホック解釈手法を提案する。
また、人間の理解可能な情報がモデル内で設計される新しい解釈のカテゴリである、本質的に解釈可能なモデルにも焦点をあてたいと考えています。
- 参考スコア(独自算出の注目度): 27.582644914283136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models developed for time-series associated tasks have become
more widely researched nowadays. However, due to the unintuitive nature of
time-series data, the interpretability problem -- where we understand what is
under the hood of these models -- becomes crucial. The advancement of similar
studies in computer vision has given rise to many post-hoc methods, which can
also shed light on how to explain time-series models. In this paper, we present
a wide range of post-hoc interpretation methods for time-series models based on
backpropagation, perturbation, and approximation. We also want to bring focus
onto inherently interpretable models, a novel category of interpretation where
human-understandable information is designed within the models. Furthermore, we
introduce some common evaluation metrics used for the explanations, and propose
several directions of future researches on the time-series interpretability
problem. As a highlight, our work summarizes not only the well-established
interpretation methods, but also a handful of fairly recent and under-developed
techniques, which we hope to capture their essence and spark future endeavours
to innovate and improvise.
- Abstract(参考訳): 近年,時系列関連タスクのためのディープラーニングモデルが広く研究されている。
しかし、時系列データの直感的な性質のため、これらのモデルのボンネット下にあるものを理解するための解釈可能性の問題が重要になる。
コンピュータビジョンにおける同様の研究の進歩は多くのポストホックな手法を生み出し、時系列モデルを説明する方法にも光を当てることができる。
本稿では,バックプロパゲーション,摂動,近似に基づく時系列モデルに対する多種多様なポストホック解釈手法を提案する。
また、人間理解可能な情報をモデル内で設計する新しい解釈カテゴリーである、本質的に解釈可能なモデルにも焦点を当てたいと考えています。
さらに,説明に用いられる評価指標をいくつか紹介し,時系列解釈可能性問題に関する今後の研究の方向性について提案する。
私たちの研究は、確立された解釈方法だけでなく、その本質を捉え、イノベーションと即興化のための将来の努力を促すために、かなり最近で未開発のテクニックもまとめています。
関連論文リスト
- The Rise of Diffusion Models in Time-Series Forecasting [5.808096811856718]
本報告では,拡散モデルに関する背景情報を網羅し,条件付け手法を詳述し,時系列予測における使用状況について検討する。
この分析は、11の特定の時系列実装、それらの背後にある直観と理論、異なるデータセットに対する有効性、および互いに比較する。
論文 参考訳(メタデータ) (2024-01-05T11:35:10Z) - On the Consistency and Robustness of Saliency Explanations for Time
Series Classification [4.062872727927056]
時系列ウィンドウを画像として解釈するために、サリエンシマップが適用されている。
本稿では,時系列の特徴と時間的属性に対するサリエンシマップの一貫性とロバスト性について広く分析する。
論文 参考訳(メタデータ) (2023-09-04T09:08:22Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting [10.605719154114354]
時系列モデルは過去の予測を正確に予測することを目的としており、そこではビジネス上の意思決定のような重要な下流のタスクに予測が使用される。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを提案する。
論文 参考訳(メタデータ) (2022-05-31T15:43:46Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。