論文の概要: AKHCRNet: Bengali Handwritten Character Recognition Using Deep Learning
- arxiv url: http://arxiv.org/abs/2008.12995v3
- Date: Sun, 20 Sep 2020 22:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 17:20:59.431680
- Title: AKHCRNet: Bengali Handwritten Character Recognition Using Deep Learning
- Title(参考訳): AKHCRNet:ディープラーニングを用いたベンガル文字認識
- Authors: Akash Roy
- Abstract要約: 本稿では,ベンガル文字,複合文字,数値桁に対する手書き文字認識のためのディープ・ニューラル・アーキテクチャ・ソリューションを提案する。
本稿では,ベンガル文字のスクラッチから学習するHCRネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.228438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: I propose a state of the art deep neural architectural solution for
handwritten character recognition for Bengali alphabets, compound characters as
well as numerical digits that achieves state-of-the-art accuracy 96.8% in just
11 epochs. Similar work has been done before by Chatterjee, Swagato, et al. but
they achieved 96.12% accuracy in about 47 epochs. The deep neural architecture
used in that paper was fairly large considering the inclusion of the weights of
the ResNet 50 model which is a 50 layer Residual Network. This proposed model
achieves higher accuracy as compared to any previous work & in a little number
of epochs. ResNet50 is a good model trained on the ImageNet dataset, but I
propose an HCR network that is trained from the scratch on Bengali characters
without the "Ensemble Learning" that can outperform previous architectures.
- Abstract(参考訳): ベンガル文字, 複合文字, 数値桁に対する手書き文字認識のための, 最先端のニューラル・アーキテクチャ・ソリューションを提案する。
同様の研究はChatterjee、Swagatoらによって以前に行われたが、およそ47回で96.12%の精度を達成した。
その論文で使用されたディープニューラルネットワークアーキテクチャは、50層のResidual NetworkであるResNet 50モデルの重みを考慮すれば、かなり大きなものだった。
提案モデルでは, 従来よりも精度が向上し, ごく少数のエポックが存在する。
ResNet50は、ImageNetデータセットでトレーニングされた優れたモデルですが、以前のアーキテクチャよりも優れた“アンサンブルラーニング”なしで、ベンガル文字のスクラッチからトレーニングされたHCRネットワークを提案します。
関連論文リスト
- Classification of Non-native Handwritten Characters Using Convolutional Neural Network [0.0]
非ネイティブユーザによる英語文字の分類は、カスタマイズされたCNNモデルを提案することによって行われる。
我々はこのCNNを、手書きの独立した英語文字データセットと呼ばれる新しいデータセットでトレーニングする。
5つの畳み込み層と1つの隠蔽層を持つモデルでは、文字認識精度において最先端モデルよりも優れる。
論文 参考訳(メタデータ) (2024-06-06T21:08:07Z) - Data Engineering for Scaling Language Models to 128K Context [98.41554785106902]
本研究では,言語モデルの文脈長を128Kまで拡張するための継続事前学習法について検討する。
既存の作業の一般的な実践である書籍のような特定のドメインで、より長いデータを鼻でサンプリングすることで、パフォーマンスが最適以下であることが分かりました。
我々のレシピは強力なオープンソース長文モデルより優れており、GPT-4 128Kのようなフロンティアモデルとのギャップを埋めている。
論文 参考訳(メタデータ) (2024-02-15T18:19:16Z) - Efficient Self-supervised Learning with Contextualized Target
Representations for Vision, Speech and Language [60.12197397018094]
data2vecは学習目標であり、いくつかのモダリティにまたがって一般化します。
マスクされたトークンをエンコードしたり、高速な畳み込みデコーダを使ったり、教師表現の構築に力を注いだりはしません。
ImageNet-1K画像分類の実験では、Data2vec 2.0は16.4倍低いトレーニング時間でMasked Autoencodersの精度と一致している。
論文 参考訳(メタデータ) (2022-12-14T22:13:11Z) - Kurdish Handwritten Character Recognition using Deep Learning Techniques [26.23274417985375]
本稿では、深層学習技術を用いてクルド語アルファベットの文字を認識可能なモデルの設計と開発を試みる。
4000万枚以上の画像を含む、手書きのクルド文字のための包括的なデータセットが作成された。
結果,精度は96%,トレーニング精度は97%であった。
論文 参考訳(メタデータ) (2022-10-18T16:48:28Z) - Efficient approach of using CNN based pretrained model in Bangla
handwritten digit recognition [0.0]
手書き文字認識は、様々な産業において多くの応用に不可欠である。
形状、サイズ、書体スタイルの多様性でベンガル文字を書くのが複雑であるため、研究者はSupervisedの機械学習アルゴリズムを使って精度を向上できなかった。
Inception-v3, EfficientNetB0を含むCNNベースの手書き文字認識モデルを提案する。
論文 参考訳(メタデータ) (2022-09-19T15:58:53Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - HCR-Net: A deep learning based script independent handwritten character
recognition network [5.8067395321424975]
手書き文字認識(HCR)は、数十年の研究にもかかわらず、困難なパターン認識問題である。
我々は、HCR研究のためのスクリプト独立型ディープラーニングネットワーク、HCR-Netを提案し、この分野の新たな研究方向性を定めている。
論文 参考訳(メタデータ) (2021-08-15T05:48:07Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - Performance Evaluation of Advanced Deep Learning Architectures for
Offline Handwritten Character Recognition [0.6445605125467573]
このシステムは、原画素値から特徴を収集することにより、高度な多層ディープニューラルネットワークを利用する。
NVIDIA DIGITSのCaffe AlexNetとGoogleNetモデルを含む、ディープラーニングアーキテクチャの2つの状態が使用されている。
AlexNetが達成した精度は77.77%、Google Netが88.89%だった。
論文 参考訳(メタデータ) (2020-03-15T11:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。