論文の概要: Don't Get Me Wrong: How to Apply Deep Visual Interpretations to Time
Series
- arxiv url: http://arxiv.org/abs/2203.07861v2
- Date: Fri, 15 Sep 2023 15:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 19:15:28.672850
- Title: Don't Get Me Wrong: How to Apply Deep Visual Interpretations to Time
Series
- Title(参考訳): Don't Get Me Wrong: 時系列にビジュアル解釈を深く適用する方法
- Authors: Christoffer Loeffler, Wei-Cheng Lai, Bjoern Eskofier, Dario Zanca,
Lukas Schmidt, Christopher Mutschler
- Abstract要約: 画像や自然言語処理に対する説明的視覚解釈アプローチにより、ドメインの専門家はほとんどのディープラーニングモデルの検証と理解が可能になる。
いずれのメソッドもすべてのメトリクスで他のメソッドよりも常に優れていますが、場合によっては先進的なものもあります。
私たちの洞察とレコメンデーションにより、専門家はモデルとタスクに適した可視化テクニックを選択できます。
- 参考スコア(独自算出の注目度): 4.723576072056345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The correct interpretation and understanding of deep learning models are
essential in many applications. Explanatory visual interpretation approaches
for image, and natural language processing allow domain experts to validate and
understand almost any deep learning model. However, they fall short when
generalizing to arbitrary time series, which is inherently less intuitive and
more diverse. Whether a visualization explains valid reasoning or captures the
actual features is difficult to judge. Hence, instead of blind trust, we need
an objective evaluation to obtain trustworthy quality metrics. We propose a
framework of six orthogonal metrics for gradient-, propagation- or
perturbation-based post-hoc visual interpretation methods for time series
classification and segmentation tasks. An experimental study includes popular
neural network architectures for time series and nine visual interpretation
methods. We evaluate the visual interpretation methods with diverse datasets
from the UCR repository and a complex, real-world dataset and study the
influence of standard regularization techniques during training. We show that
none of the methods consistently outperforms others on all metrics, while some
are sometimes ahead. Our insights and recommendations allow experts to choose
suitable visualization techniques for the model and task.
- Abstract(参考訳): 深層学習モデルの正しい解釈と理解は多くの応用において不可欠である。
画像や自然言語処理に対する説明的視覚解釈アプローチにより、ドメインの専門家はほとんどのディープラーニングモデルの検証と理解が可能になる。
しかし、これは本質的に直観的でなく、より多様である任意の時系列に一般化する際には不足する。
視覚化が妥当な推論を説明するか、実際の特徴を捉えるかは、判断が難しい。
したがって、盲目の信頼の代わりに、信頼できる品質指標を得るために客観的な評価が必要です。
時系列分類とセグメンテーションタスクのための,勾配,伝播,摂動に基づく6つの直交指標の枠組みを提案する。
実験には、時系列のための一般的なニューラルネットワークアーキテクチャと9つの視覚的解釈方法が含まれる。
UCRレポジトリと複雑な実世界のデータセットからの多様なデータセットによる視覚的解釈手法の評価を行い、トレーニング中の標準正規化手法の影響について検討する。
いずれのメソッドも、すべてのメトリクスで一貫して他のメソッドよりも優れていないことが示されています。
私たちの洞察とレコメンデーションにより、専門家はモデルとタスクに適した可視化テクニックを選択できます。
関連論文リスト
- Parametric Augmentation for Time Series Contrastive Learning [33.47157775532995]
我々は、堅牢で差別的な表現を学習する上でモデルを支援するポジティブな例を作成します。
通常、プリセットされた人間の直観は、関連するデータ拡張の選択を指示する。
本稿では、時系列表現学習を支援するために適応的に使用できるパラメトリック拡張型学習フレームワークAutoTCLを提案する。
論文 参考訳(メタデータ) (2024-02-16T03:51:14Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Unsupervised Representation Learning for Time Series: A Review [20.00853543048447]
教師なし表現学習アプローチは、すべてのサンプルに注釈をつけることなく、ラベルのないデータから識別的特徴表現を学習することを目的としている。
本稿では,現在急速に進化している時系列の非教師なし表現学習手法の文献レビューを行う。
我々は9つの異なる実世界のデータセットに基づいて、最先端のアプローチ、特に急速に進化するコントラスト学習手法を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-03T07:28:06Z) - Multispectral Contrastive Learning with Viewmaker Networks [8.635434871127512]
さまざまなリモートセンシングデータセットにコントラスト学習アプローチを適用することに注力する。
また,ビューメーカネットワークは,広範囲なドメイン知識や試行錯誤を必要とせずに,この設定でビューを作成することを約束していることを示す。
論文 参考訳(メタデータ) (2023-02-11T18:44:12Z) - Differentiable Outlier Detection Enable Robust Deep Multimodal Analysis [20.316056261749946]
本稿では,明示的な知識グラフを取り入れたエンドツーエンドのビジョンと言語モデルを提案する。
また,暗黙的ネットワーク演算子を用いた対話型アウト・オブ・ディストリビューション・レイヤを導入する。
実際に,視覚的質問応答,視覚的推論,画像テキスト検索など,複数の視覚および言語下流タスクにモデルを適用した。
論文 参考訳(メタデータ) (2023-02-11T05:46:21Z) - Localization vs. Semantics: Visual Representations in Unimodal and
Multimodal Models [57.08925810659545]
既存の視覚・言語モデルと視覚のみのモデルにおける視覚表現の比較分析を行う。
我々の経験的観察は、視覚・言語モデルがラベル予測タスクに優れていることを示唆している。
我々の研究は、視覚学習における言語の役割に光を当て、様々な事前学習モデルの実証的なガイドとして機能することを願っている。
論文 参考訳(メタデータ) (2022-12-01T05:00:18Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Self-Supervised Visual Representation Learning Using Lightweight
Architectures [0.0]
自己教師付き学習では、マシンによってアノテーションが生成されるデータセットを使用して、プレテキストタスクを解決するためにモデルが訓練される。
我々は、画像データから特徴を抽出する最も顕著な前文タスクを批判的に検討する。
我々は、他の全てのパラメータを均一に保ちながら、様々な自己監督技術の性能について研究する。
論文 参考訳(メタデータ) (2021-10-21T14:13:10Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。