論文の概要: A Lexicon and Depth-wise Separable Convolution Based Handwritten Text
Recognition System
- arxiv url: http://arxiv.org/abs/2207.04651v1
- Date: Mon, 11 Jul 2022 06:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 14:55:59.202950
- Title: A Lexicon and Depth-wise Separable Convolution Based Handwritten Text
Recognition System
- Title(参考訳): レキシコンと奥行き分離可能な畳み込みに基づく手書き文字認識システム
- Authors: Lalita Kumari, Sukhdeep Singh, VVS Rathore and Anuj Sharma
- Abstract要約: 我々は、トレーニング対象のパラメータの総数を減らすために、標準の畳み込みの代わりに奥行きの畳み込みを使用してきた。
テスト段階では辞書ベースのワードビーム検索デコーダも含んでいる。
IAMデータセットでは3.84%の文字誤り率と9.40%のワードエラー率、4.88%の文字エラー率、14.56%のワードエラー率を得た。
- 参考スコア(独自算出の注目度): 3.9097549127191473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cursive handwritten text recognition is a challenging research problem in the
domain of pattern recognition. The current state-of-the-art approaches include
models based on convolutional recurrent neural networks and multi-dimensional
long short-term memory recurrent neural networks techniques. These methods are
highly computationally extensive as well model is complex at design level. In
recent studies, combination of convolutional neural network and gated
convolutional neural networks based models demonstrated less number of
parameters in comparison to convolutional recurrent neural networks based
models. In the direction to reduced the total number of parameters to be
trained, in this work, we have used depthwise convolution in place of standard
convolutions with a combination of gated-convolutional neural network and
bidirectional gated recurrent unit to reduce the total number of parameters to
be trained. Additionally, we have also included a lexicon based word beam
search decoder at testing step. It also helps in improving the the overall
accuracy of the model. We have obtained 3.84% character error rate and 9.40%
word error rate on IAM dataset; 4.88% character error rate and 14.56% word
error rate in George Washington dataset, respectively.
- Abstract(参考訳): 手書きの手書き文字認識は、パターン認識の領域において困難な研究課題である。
現在の最先端のアプローチには、畳み込みリカレントニューラルネットワークと多次元の長期記憶リカレントニューラルネットワーク技術に基づくモデルが含まれる。
これらの手法は非常に計算量が多く、モデルも設計レベルで複雑である。
近年の研究では、畳み込みニューラルネットワークとゲート畳み込みニューラルネットワークに基づくモデルの組み合わせにより、畳み込みリカレントニューラルネットワークに基づくモデルと比較してパラメータの数が少ないことが示されている。
本研究は、学習すべきパラメータの総数を減らすために、ゲート畳み込みニューラルネットワークと双方向ゲート再帰ユニットを組み合わせることで、標準畳み込みの代わりに深さ方向畳み込みを用いて、訓練対象パラメータの総数を削減する。
さらに,テスト段階では辞書ベースのワードビーム検索デコーダも搭載した。
また、モデル全体の精度を改善するのにも役立ちます。
iamデータセットでは文字誤り率3.84%、単語誤り率9.40%、ジョージ・ワシントンデータセットでは文字誤り率4.88%、単語誤り率は14.56%である。
関連論文リスト
- The sampling complexity of learning invertible residual neural networks [9.614718680817269]
フィードフォワードReLUニューラルネットワークをポイントサンプルから高い均一な精度で決定することは、次元性の呪いに苦しむことが示されている。
我々は、特定のニューラルネットワークアーキテクチャを制限することでサンプリングの複雑さを改善することができるかどうかを考察する。
我々の主な結果は、残差ニューラルネットワークアーキテクチャと可逆性は、より単純なフィードフォワードアーキテクチャで遭遇する複雑性障壁を克服する助けにならないことを示している。
論文 参考訳(メタデータ) (2024-11-08T10:00:40Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Generalization Error Bounds for Iterative Recovery Algorithms Unfolded
as Neural Networks [6.173968909465726]
線形測定の少ないスパース再構成に適したニューラルネットワークの一般クラスを導入する。
層間の重量共有を広範囲に行うことで、全く異なるニューラルネットワークタイプに対する統一的な分析を可能にします。
論文 参考訳(メタデータ) (2021-12-08T16:17:33Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Measurement error models: from nonparametric methods to deep neural
networks [3.1798318618973362]
本稿では,測定誤差モデルの推定に有効なニューラルネットワーク設計を提案する。
完全に接続されたフィードフォワードニューラルネットワークを用いて回帰関数を$f(x)$に近似する。
我々は、ニューラルネットワークアプローチと古典的ノンパラメトリック手法を比較するために、広範囲にわたる数値的研究を行っている。
論文 参考訳(メタデータ) (2020-07-15T06:05:37Z) - Dynamic Bayesian Neural Networks [2.28438857884398]
私たちは、Hidden Markov Neural Networkと呼ばれる時間進化型ニューラルネットワークを定義します。
フィードフォワードニューラルネットワークの重みは、隠れマルコフモデルの隠れ状態によってモデル化される。
フィルタリングアルゴリズムは、重みを経る時間に進化する時間に対する変動近似を学習するために用いられる。
論文 参考訳(メタデータ) (2020-04-15T09:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。