論文の概要: exploRNN: Understanding Recurrent Neural Networks through Visual
Exploration
- arxiv url: http://arxiv.org/abs/2012.06326v1
- Date: Wed, 9 Dec 2020 15:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 08:59:31.516198
- Title: exploRNN: Understanding Recurrent Neural Networks through Visual
Exploration
- Title(参考訳): explornn:ビジュアル探索によるリカレントニューラルネットワークの理解
- Authors: Alex B\"auerle, Raphael St\"ork, and Timo Ropinski
- Abstract要約: リカレントニューラルネットワーク(RNN)は、シーケンシャルデータを処理することができる。
本稿では,RNNのための対話型学習可視化である ExploRNN を提案する。
LSTM細胞内のデータフローの詳細な検査を可能にするとともに、粗いレベルでRNNのトレーニングプロセスの概要を提供します。
- 参考スコア(独自算出の注目度): 6.006493809079212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the success of deep learning and its growing job market, students and
researchers from many areas are getting interested in learning about deep
learning technologies. Visualization has proven to be of great help during this
learning process, while most current educational visualizations are targeted
towards one specific architecture or use case. Unfortunately, recurrent neural
networks (RNNs), which are capable of processing sequential data, are not
covered yet, despite the fact that tasks on sequential data, such as text and
function analysis, are at the forefront of deep learning research. Therefore,
we propose exploRNN, the first interactively explorable, educational
visualization for RNNs. exploRNN allows for interactive experimentation with
RNNs, and provides in-depth information on their functionality and behavior
during training. By defining educational objectives targeted towards
understanding RNNs, and using these as guidelines throughout the visual design
process, we have designed exploRNN to communicate the most important concepts
of RNNs directly within a web browser. By means of exploRNN, we provide an
overview of the training process of RNNs at a coarse level, while also allowing
detailed inspection of the data-flow within LSTM cells. Within this paper, we
motivate our design of exploRNN, detail its realization, and discuss the
results of a user study investigating the benefits of exploRNN.
- Abstract(参考訳): ディープラーニングの成功と、その成長する求人市場により、多くの分野の学生や研究者は、ディープラーニング技術について学ぼうとしている。
可視化は、この学習プロセスにおいて非常に役立つことが証明されていますが、現在の教育的な視覚化のほとんどは、特定のアーキテクチャやユースケースをターゲットにしています。
残念ながら、シーケンシャルなデータを処理できるrecurrent neural networks(rnn)は、テキストや関数分析といったシーケンシャルなデータのタスクがディープラーニング研究の最前線にあるにもかかわらず、まだカバーされていない。
そこで本研究では,RNNのための対話型学習可視化である ExploRNN を提案する。
exploRNNは、RNNとのインタラクティブな実験を可能にし、トレーニング中の機能や振る舞いに関する詳細な情報を提供する。
RNNの理解を目的とした教育目的を定義し、これらをビジュアルデザインプロセス全体を通してガイドラインとして使用することにより、Webブラウザ内でRNNの最も重要な概念を直接伝達するエクスプロRNNを設計した。
ExploRNNにより、粗いレベルでのRNNのトレーニングプロセスの概要を提供するとともに、LSTMセル内のデータフローの詳細な検査を可能にする。
本稿では,exploRNNの設計を動機付け,その実現を詳述するとともに,exploRNNのメリットを調査するユーザスタディの結果について考察する。
関連論文リスト
- Investigating Sparsity in Recurrent Neural Networks [0.0]
本論文は, プルーニングとスパースリカレントニューラルネットワークがRNNの性能に与える影響を考察することに焦点を当てる。
まず,RNNの刈り込み,RNNの性能への影響,および刈り込み後の精度回復に必要な訓練エポック数について述べる。
次に、スパースリカレントニューラルネットワークの作成と訓練を継続し、その基礎となる任意の構造の性能とグラフ特性の関係を同定する。
論文 参考訳(メタデータ) (2024-07-30T07:24:58Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Uncovering the Representation of Spiking Neural Networks Trained with
Surrogate Gradient [11.0542573074431]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率のため、次世代ニューラルネットワークの候補として認識されている。
近年、SNNは、代理勾配トレーニングを用いて、画像認識タスクにおいて、ほぼ最先端のパフォーマンスを達成できることを示した。
論文 参考訳(メタデータ) (2023-04-25T19:08:29Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - An Efficient Spiking Neural Network for Recognizing Gestures with a DVS
Camera on the Loihi Neuromorphic Processor [12.118084418840152]
Spiking Neural Networks(SNN)は、機械学習ベースのアプリケーションにおいて注目を浴びている。
本稿では,対応するディープニューラルネットワーク(DNN)とほぼ同じ精度のSNNの設計手法を示す。
我々のSNNは89.64%の分類精度を達成し、37のLoihiコアしか占有していない。
論文 参考訳(メタデータ) (2020-05-16T17:00:10Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。