論文の概要: Ubicomp Digital 2020 -- Handwriting classification using a convolutional
recurrent network
- arxiv url: http://arxiv.org/abs/2008.01078v1
- Date: Mon, 3 Aug 2020 11:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 05:55:18.426774
- Title: Ubicomp Digital 2020 -- Handwriting classification using a convolutional
recurrent network
- Title(参考訳): Ubicomp Digital 2020 -- 畳み込みリカレントネットワークを用いた手書き分類
- Authors: Wei-Cheng Lai, Hendrik Schr\"oter
- Abstract要約: ニューラルネットワークを使ってデータを52のクラスに分類します。
著者の排他的テストセットでは68%、盲目の挑戦テストセットでは64.6%の精度で2位になった。
- 参考スコア(独自算出の注目度): 0.43512163406552007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Ubicomp Digital 2020 -- Time Series Classification Challenge from STABILO
is a challenge about multi-variate time series classification. The data
collected from 100 volunteer writers, and contains 15 features measured with
multiple sensors on a pen. In this paper,we use a neural network to classify
the data into 52 classes, that is lower and upper cases of Arabic letters. The
proposed architecture of the neural network a is CNN-LSTM network. It combines
convolutional neural network (CNN) for short term context with along short term
memory layer (LSTM) for also long term dependencies. We reached an accuracy of
68% on our writer exclusive test set and64.6% on the blind challenge test set
resulting in the second place.
- Abstract(参考訳): Ubicomp Digital 2020 - STABILOによる時系列分類チャレンジは、多変量時系列分類の課題である。
100人のボランティアライターから収集されたデータには、ペンに複数のセンサーで測定された15の特徴が含まれている。
本稿では,ニューラルネットワークを用いて,アラビア文字の下位と上位の52クラスに分類する。
提案するニューラルネットワーク a のアーキテクチャは CNN-LSTM ネットワークである。
畳み込みニューラルネットワーク(cnn)を短期的コンテキストに、短期的メモリ層(lstm)を長期的依存関係として組み合わせる。
筆者排他テストセットでは68%,ブラインドチャレンジテストセットでは64.6%の精度に達し,第2位となった。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Image Classification using Sequence of Pixels [3.04585143845864]
本研究では,繰り返しニューラルネットワークを用いた逐次画像分類法の比較を行った。
本稿では,Long-Short-Term memory(LSTM)やBidirectional Long-Short-Term memory(BiLSTM)アーキテクチャに基づく手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T09:42:44Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Detecting Handwritten Mathematical Terms with Sensor Based Data [71.84852429039881]
本稿では,手書きの数学的用語を自動分類する,スタビロによるUbiComp 2021チャレンジの解を提案する。
入力データセットには異なるライターのデータが含まれており、ラベル文字列は合計15の異なる文字から構成されている。
論文 参考訳(メタデータ) (2021-09-12T19:33:34Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures [58.720142291102135]
てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
論文 参考訳(メタデータ) (2021-06-22T18:40:31Z) - Recurrence-free unconstrained handwritten text recognition using gated
fully convolutional network [2.277447144331876]
制約のない手書きテキスト認識は、ほとんどのドキュメント分析タスクの主要なステップです。
LSTM細胞を使用する別の方法の1つは、畳み込み層を多用して長期記憶損失を補うことである。
我々は、よく知られたCNN+LSTMアーキテクチャの再発のない代替であるGated Fully Convolutional Networkアーキテクチャを紹介します。
論文 参考訳(メタデータ) (2020-12-09T10:30:13Z) - A temporal-to-spatial deep convolutional neural network for
classification of hand movements from multichannel electromyography data [0.14502611532302037]
我々は,マルチチャネルsEMGのための深部CNNにおける初期処理層の設計を提案し,評価する新しい貢献を行う。
本稿では,各sEMGチャネル上で第1層が個別に畳み込みを行い,時間的特徴を抽出する,新しい時間的空間的CNNアーキテクチャを提案する。
我々の新しいTtS CNN設計はデータベース1では66.6%、データベース2では67.8%の精度を実現している。
論文 参考訳(メタデータ) (2020-07-16T09:11:26Z) - Hardware Implementation of Spiking Neural Networks Using
Time-To-First-Spike Encoding [5.709318189772638]
ハードウェアベースのスパイクニューラルネットワーク(SNN)は、認知コンピューティングシステムの有望な候補と見なされている。
本研究では, 時間的バックプロパゲーションを用いた情報伝達を行うSNNを訓練する。
512個の隠れニューロンを持つ時間的に符号化されたSNNは、MNISTテストセットの96.90%の精度を示した。
論文 参考訳(メタデータ) (2020-06-09T03:31:15Z) - A CNN-LSTM Quantifier for Single Access Point CSI Indoor Localization [9.601632184687787]
本稿では,Wi-Fiフィンガープリンティング屋内ローカライゼーションのための畳み込みニューラルネットワーク(CNN)と長寿命メモリ(LSTM)量子化器(LSTM)を組み合わせたネットワーク構造を提案する。
WiFiルータを1つだけ使うと、平均局所化誤差が2.5mで、4m未満の誤差は$mathrm80%である。
論文 参考訳(メタデータ) (2020-05-13T16:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。