論文の概要: Interpretation of Deep Temporal Representations by Selective
Visualization of Internally Activated Nodes
- arxiv url: http://arxiv.org/abs/2004.12538v2
- Date: Fri, 10 Jul 2020 05:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:18:00.222203
- Title: Interpretation of Deep Temporal Representations by Selective
Visualization of Internally Activated Nodes
- Title(参考訳): 内部活性ノードの選択的可視化による深部時間表現の解釈
- Authors: Sohee Cho, Ginkyeng Lee, Wonjoon Chang and Jaesik Choi
- Abstract要約: 深層ニューラルネットワークから学習した時間的表現を可視化する2つの新しいフレームワークを提案する。
我々のアルゴリズムは、高度に活性化された周期を抽出することで、時間的ニューラルネットワークの決定を解釈する。
このようなサブシーケンスをクラスタリングで特徴付け、提案した型と実際のデータの不確実性を計算する。
- 参考スコア(独自算出の注目度): 24.228613156037532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently deep neural networks demonstrate competitive performances in
classification and regression tasks for many temporal or sequential data.
However, it is still hard to understand the classification mechanisms of
temporal deep neural networks. In this paper, we propose two new frameworks to
visualize temporal representations learned from deep neural networks. Given
input data and output, our algorithm interprets the decision of temporal neural
network by extracting highly activated periods and visualizes a sub-sequence of
input data which contributes to activate the units. Furthermore, we
characterize such sub-sequences with clustering and calculate the uncertainty
of the suggested type and actual data. We also suggest Layer-wise Relevance
from the output of a unit, not from the final output, with backward Monte-Carlo
dropout to show the relevance scores of each input point to activate units with
providing a visual representation of the uncertainty about this impact.
- Abstract(参考訳): 最近のディープニューラルネットワークは、多くの時間的またはシーケンシャルなデータに対する分類および回帰タスクにおける競合性能を示す。
しかし、時間的深層ニューラルネットワークの分類機構を理解することは依然として困難である。
本稿では,深層ニューラルネットワークから学習した時間表現を可視化する2つの新しいフレームワークを提案する。
入力データと出力を与えられたアルゴリズムは、高度に活性化された周期を抽出して時間的ニューラルネットワークの決定を解釈し、ユニットの活性化に寄与する入力データのサブシーケンスを可視化する。
さらに,これらのサブシーケンスをクラスタリングで特徴付け,提案する型と実際のデータの不確実性を計算する。
また、最終出力からではなく、各入力点の関連スコアを示すために、下位のモンテカルロドロップアウトを用いて、ユニットの出力からレイヤ毎の関連性を示唆し、この影響に関する不確かさを視覚的に表現する。
関連論文リスト
- MTS2Graph: Interpretable Multivariate Time Series Classification with
Temporal Evolving Graphs [1.1756822700775666]
入力代表パターンを抽出・クラスタリングすることで時系列データを解釈する新しいフレームワークを提案する。
UCR/UEAアーカイブの8つのデータセットとHARとPAMデータセットで実験を行います。
論文 参考訳(メタデータ) (2023-06-06T16:24:27Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Exploring the Properties and Evolution of Neural Network Eigenspaces
during Training [0.0]
我々は,問題難易度とニューラルネットワーク容量が,対角的に予測性能に影響を及ぼすことを示した。
従来報告されていた尾部パターンのような病理パターンとは無関係に観察結果が得られた」。
論文 参考訳(メタデータ) (2021-06-17T14:18:12Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Ensemble perspective for understanding temporal credit assignment [1.9843222704723809]
繰り返しニューラルネットワークにおける各接続は、正確な重み値ではなく、スパイクとスラブの分布によってモデル化されていることを示す。
本モデルでは,ネットワーク全体の性能を決定する重要な接続を明らかにする。
したがって、再帰的なニューラルネットワークにおける時間的クレジット割り当てをアンサンブルの観点から研究することを約束している。
論文 参考訳(メタデータ) (2021-02-07T08:14:05Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z) - A Prospective Study on Sequence-Driven Temporal Sampling and Ego-Motion
Compensation for Action Recognition in the EPIC-Kitchens Dataset [68.8204255655161]
行動認識はコンピュータビジョンにおける最上位の研究分野の一つである。
エゴモーション記録シーケンスは重要な関連性を持つようになった。
提案手法は,このエゴモーションやカメラの動きを推定して対処することを目的としている。
論文 参考訳(メタデータ) (2020-08-26T14:44:45Z) - Implicit Saliency in Deep Neural Networks [15.510581400494207]
本稿では,既存の認識と局所化の深部構造が人間の視覚的正当性を予測できることを示す。
予測ミスマッチ仮説を教師なし方式で計算し,その暗黙の正当性を計算する。
実験の結果,この方法での塩分濃度の抽出は,最先端の教師付きアルゴリズムに対して測定した場合と同等の性能を示すことがわかった。
論文 参考訳(メタデータ) (2020-08-04T23:14:24Z) - Forgetting Outside the Box: Scrubbing Deep Networks of Information
Accessible from Input-Output Observations [143.3053365553897]
本稿では、訓練された深層ネットワークからトレーニングデータのコホートへの依存を取り除く手順について述べる。
忘れられたコホートについて,クエリ毎にどれだけの情報を取り出すことができるか,という新たな境界を導入する。
我々は,ニューラルタンジェントカーネルにインスパイアされたDNNのアクティベーションとウェイトダイナミクスの接続を利用して,アクティベーションの情報を計算する。
論文 参考訳(メタデータ) (2020-03-05T23:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。