論文の概要: 2D Self-Organized ONN Model For Handwritten Text Recognition
- arxiv url: http://arxiv.org/abs/2207.08139v1
- Date: Sun, 17 Jul 2022 11:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 07:21:06.027414
- Title: 2D Self-Organized ONN Model For Handwritten Text Recognition
- Title(参考訳): 手書き文字認識のための2次元自己組織化ONNモデル
- Authors: Hanadi Hassen Mohammed, Junaid Malik, Somaya Al-Madeed, and Serkan
Kiranyaz
- Abstract要約: 本研究では,新たなネットワークモデルの中心となる2次元自己組織型ONN(Self-ONNs)を提案する。
近年, 書体スタイルの変動に対処することが実証された変形可能な畳み込みが本研究で活用されている。
提案手法は, 文字誤り率 (CER) と単語誤り率 (WER) を大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 4.66970207245168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Convolutional Neural Networks (CNNs) have recently reached
state-of-the-art Handwritten Text Recognition (HTR) performance. However,
recent research has shown that typical CNNs' learning performance is limited
since they are homogeneous networks with a simple (linear) neuron model. With
their heterogeneous network structure incorporating non-linear neurons,
Operational Neural Networks (ONNs) have recently been proposed to address this
drawback. Self-ONNs are self-organized variations of ONNs with the generative
neuron model that can generate any non-linear function using the Taylor
approximation. In this study, in order to improve the state-of-the-art
performance level in HTR, the 2D Self-organized ONNs (Self-ONNs) in the core of
a novel network model are proposed. Moreover, deformable convolutions, which
have recently been demonstrated to tackle variations in the writing styles
better, are utilized in this study. The results over the IAM English dataset
and HADARA80P Arabic dataset show that the proposed model with the operational
layers of Self-ONNs significantly improves Character Error Rate (CER) and Word
Error Rate (WER). Compared with its counterpart CNNs, Self-ONNs reduce CER and
WER by 1.2% and 3.4 % in the HADARA80P and 0.199% and 1.244% in the IAM
dataset. The results over the benchmark IAM demonstrate that the proposed model
with the operational layers of Self-ONNs outperforms recent deep CNN models by
a significant margin while the use of Self-ONNs with deformable convolutions
demonstrates exceptional results.
- Abstract(参考訳): deep convolutional neural networks(cnns)は最近、最先端の手書きテキスト認識(htr)性能に達した。
しかし、近年の研究では、単純な(線形)ニューロンモデルを持つ均質ネットワークであるため、典型的なcnnの学習性能は限られていることが示されている。
非線型ニューロンを組み込んだ異種ネットワーク構造により、最近この欠点に対処するためにオペレーショナルニューラルネットワーク(ONN)が提案されている。
自己ONN(Self-ONNs)は、テイラー近似を用いて任意の非線形関数を生成できる生成ニューロンモデルを持つONNの自己組織化変異である。
本研究では,HTRの最先端性能向上のために,新しいネットワークモデルの中心となる2次元自己組織型ONN(Self-ONN)を提案する。
また,近年,文章スタイルの変化にうまく取り組むことが実証された変形可能な畳み込みを本研究で活用した。
iam english dataset と hadara80p arabic dataset における結果から,自己オンンの操作層を持つ提案モデルでは,文字誤り率 (cer) と単語誤り率 (wer) が有意に向上した。
対応するCNNと比較して、Self-ONNはCERとWERを1.2%、HADARA80Pは3.4%、IAMデータセットは0.199%、WERは1.244%削減する。
ベンチマークiamによる結果から,提案手法は,近年の深層cnnモデルに比較して有意な差を示し,一方,変形可能な畳み込みを伴うセルフonnの利用は例外的な結果を示している。
関連論文リスト
- DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Supervised Training of Siamese Spiking Neural Networks with Earth's
Mover Distance [4.047840018793636]
本研究は,高可逆性シアムニューラルネットモデルをイベントデータ領域に適応させる。
我々はスパイク・トレインとスパイク・ニューラル・ネットワーク(SNN)の間の地球のモーバー距離を最適化するための教師付きトレーニング・フレームワークを導入する。
論文 参考訳(メタデータ) (2022-02-20T00:27:57Z) - BackEISNN: A Deep Spiking Neural Network with Adaptive Self-Feedback and
Balanced Excitatory-Inhibitory Neurons [8.956708722109415]
スパイクニューラルネットワーク(SNN)は離散スパイクを通して情報を伝達し、空間時間情報を処理するのによく機能する。
適応型自己フィードバックと平衡興奮性および抑制性ニューロン(BackEISNN)を用いた深部スパイクニューラルネットワークを提案する。
MNIST、FashionMNIST、N-MNISTのデータセットに対して、我々のモデルは最先端の性能を達成した。
論文 参考訳(メタデータ) (2021-05-27T08:38:31Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Auditory Attention Decoding from EEG using Convolutional Recurrent
Neural Network [20.37214453938965]
聴覚注意復号(aad)アプローチは,マルチトーカーシナリオにおいて参加者のアイデンティティを判定するために提案されている。
近年,この問題を解決するためにディープニューラルネットワーク(DNN)に基づくモデルが提案されている。
本論文では,新しい畳み込み型リカレントニューラルネットワーク(CRNN)に基づく回帰モデルと分類モデルを提案する。
論文 参考訳(メタデータ) (2021-03-03T05:09:40Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。