論文の概要: Image Classification using Sequence of Pixels
- arxiv url: http://arxiv.org/abs/2209.11495v1
- Date: Fri, 23 Sep 2022 09:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 17:24:18.265720
- Title: Image Classification using Sequence of Pixels
- Title(参考訳): 画素列を用いた画像分類
- Authors: Gajraj Kuldeep
- Abstract要約: 本研究では,繰り返しニューラルネットワークを用いた逐次画像分類法の比較を行った。
本稿では,Long-Short-Term memory(LSTM)やBidirectional Long-Short-Term memory(BiLSTM)アーキテクチャに基づく手法について述べる。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study compares sequential image classification methods based on
recurrent neural networks. We describe methods based on recurrent neural
networks such as Long-Short-Term memory(LSTM), bidirectional Long-Short-Term
memory(BiLSTM) architectures, etc. We also review the state-of-the-art
sequential image classification architectures. We mainly focus on LSTM, BiLSTM,
temporal convolution network, and independent recurrent neural network
architecture in the study. It is known that RNN lacks in learning long-term
dependencies in the input sequence. We use a simple feature construction method
using orthogonal Ramanujan periodic transform on the input sequence.
Experiments demonstrate that if these features are given to LSTM or BiLSTM
networks, the performance increases drastically.
Our focus in this study is to increase the training accuracy simultaneously
reducing the training time for the LSTM and BiLSTM architecture, but not on
pushing the state-of-the-art results, so we use simple LSTM/BiLSTM
architecture. We compare sequential input with the constructed feature as input
to single layer LSTM and BiLSTM network for MNIST and CIFAR datasets. We
observe that sequential input to the LSTM network with 128 hidden unit training
for five epochs results in training accuracy of 33% whereas constructed
features as input to the same LSTM network results in training accuracy of 90%
with 1/3 lesser time.
- Abstract(参考訳): 本研究では、繰り返しニューラルネットワークに基づく逐次画像分類法を比較する。
本稿では,Long-Short-Term memory(LSTM)やBidirectional Long-Short-Term memory(BiLSTM)アーキテクチャなどのリカレントニューラルネットワークに基づく手法について述べる。
また,最先端のシーケンシャル画像分類アーキテクチャについても検討する。
本研究は主に、LSTM、BiLSTM、時間的畳み込みネットワーク、および独立したリカレントニューラルネットワークアーキテクチャに焦点を当てている。
RNNは入力シーケンスにおける長期依存の学習に欠けていることが知られている。
入力シーケンス上の直交ラマヌジャン周期変換を用いた簡単な特徴構築法を用いる。
実験により、これらの機能がLSTMやBiLSTMネットワークに提供される場合、性能が劇的に向上することが示された。
本研究は,LSTMおよびBiLSTMアーキテクチャのトレーニング時間を同時に短縮することを目的としているが,最先端の結果のプッシュは行わないので,簡単なLSTM/BiLSTMアーキテクチャを用いる。
MNISTおよびCIFARデータセットの単一層LSTMおよびBiLSTMネットワークへの入力として構築された特徴と逐次入力を比較した。
LSTMネットワークへの連続的な入力は,5つのエポックに対して128個の隠れユニットトレーニングで33%のトレーニング精度が得られるのに対し,同じLSTMネットワークへの入力として構築された特徴は90%のトレーニング精度と1/3の時間短縮をもたらす。
関連論文リスト
- Unlocking the Power of LSTM for Long Term Time Series Forecasting [27.245021350821638]
本稿では, sLSTM 上に実装したP-sLSTM という単純なアルゴリズムを提案する。
これらの改良により、TSFにおけるsLSTMの性能が大幅に向上し、最先端の結果が得られた。
論文 参考訳(メタデータ) (2024-08-19T13:59:26Z) - RigLSTM: Recurrent Independent Grid LSTM for Generalizable Sequence
Learning [75.61681328968714]
本稿では,対象タスクの基盤となるモジュール構造を利用するために,リカレントな独立したGrid LSTM(RigLSTM)を提案する。
本モデルでは, セル選択, 入力特徴選択, 隠れ状態選択, ソフト状態更新を採用し, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-11-03T07:40:06Z) - Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Automatic Remaining Useful Life Estimation Framework with Embedded
Convolutional LSTM as the Backbone [5.927250637620123]
組込み畳み込みLSTM(E NeuralTM)と呼ばれる新しいLSTM変種を提案する。
ETMでは、異なる1次元の畳み込みの群がLSTM構造に埋め込まれている。
RUL推定のために広く用いられているいくつかのベンチマークデータセットに対する最先端のアプローチよりも,提案したEMMアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T08:34:20Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Achieving Online Regression Performance of LSTMs with Simple RNNs [0.0]
本稿では,パラメータ数に線形時間を要する1次学習アルゴリズムを提案する。
SRNNが我々のアルゴリズムでトレーニングされている場合、LSTMと非常によく似た回帰性能を2~3倍の短いトレーニング時間で提供することを示す。
論文 参考訳(メタデータ) (2020-05-16T11:41:13Z) - Sentiment Analysis Using Simplified Long Short-term Memory Recurrent
Neural Networks [1.5146765382501612]
GOPディベートTwitterデータセット上で感情分析を行う。
学習を高速化し、計算コストと時間を短縮するために、LSTMモデルのスリムバージョンを6つの異なるパラメータで削減する手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T12:50:10Z) - Depth-Adaptive Graph Recurrent Network for Text Classification [71.20237659479703]
S-LSTM(Sentence-State LSTM)は、高効率なグラフリカレントネットワークである。
そこで本研究では,S-LSTMの深度適応機構を提案する。
論文 参考訳(メタデータ) (2020-02-29T03:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。