論文の概要: A Classical Approach to Handcrafted Feature Extraction Techniques for
Bangla Handwritten Digit Recognition
- arxiv url: http://arxiv.org/abs/2201.10102v1
- Date: Tue, 25 Jan 2022 05:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 05:26:48.561480
- Title: A Classical Approach to Handcrafted Feature Extraction Techniques for
Bangla Handwritten Digit Recognition
- Title(参考訳): バングラ手書きディジット認識のための手作り特徴抽出手法の古典的アプローチ
- Authors: Md. Ferdous Wahid, Md. Fahim Shahriar, Md. Shohanur Islam Sobuj
- Abstract要約: 我々は、Bangla Handwritten Digitを認識するために、厳格な4つの分類器をベンチマークした。
NumtaDB、CMARTdb、Ekush、BDRWのデータセットにおけるHOG+SVM法の認識精度はそれぞれ93.32%、98.08%、95.68%、89.68%に達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bangla Handwritten Digit recognition is a significant step forward in the
development of Bangla OCR. However, intricate shape, structural likeness and
distinctive composition style of Bangla digits makes it relatively challenging
to distinguish. Thus, in this paper, we benchmarked four rigorous classifiers
to recognize Bangla Handwritten Digit: K-Nearest Neighbor (KNN), Support Vector
Machine (SVM), Random Forest (RF), and Gradient-Boosted Decision Trees (GBDT)
based on three handcrafted feature extraction techniques: Histogram of Oriented
Gradients (HOG), Local Binary Pattern (LBP), and Gabor filter on four publicly
available Bangla handwriting digits datasets: NumtaDB, CMARTdb, Ekush and BDRW.
Here, handcrafted feature extraction methods are used to extract features from
the dataset image, which are then utilized to train machine learning
classifiers to identify Bangla handwritten digits. We further fine-tuned the
hyperparameters of the classification algorithms in order to acquire the finest
Bangla handwritten digits recognition performance from these algorithms, and
among all the models we employed, the HOG features combined with SVM model
(HOG+SVM) attained the best performance metrics across all datasets. The
recognition accuracy of the HOG+SVM method on the NumtaDB, CMARTdb, Ekush and
BDRW datasets reached 93.32%, 98.08%, 95.68% and 89.68%, respectively as well
as we compared the model performance with recent state-of-art methods.
- Abstract(参考訳): Bangla Handwriting Digit Recognitionは、Bangla OCRの開発において重要な一歩である。
しかし、複雑な形状、構造的類似性、バングラ数字の独特な構成様式は、区別が比較的難しい。
そこで本稿では,Bangla Handwriting Digit: K-Nearest Neighbor (KNN), Support Vector Machine (SVM), Random Forest (RF), and Gradient-Boosted Decision Trees (GBDT) の3つの手作り特徴抽出技術に基づいて,NumtaDB, CMARTdb, Ekush, BDRWの4つの公開手書き文字データベース上でのHistogram of Oriented Gradients (HOG), Local Binary Pattern (LBP), Gaborフィルタをベンチマークした。
ここでは,データセット画像から特徴を抽出する手作り特徴抽出手法を用いて,バングラ文字を識別するために機械学習分類器を訓練する。
さらに分類アルゴリズムのハイパーパラメータを微調整して、これらのアルゴリズムから最も優れたBangla手書き桁認識性能を得るとともに、採用したすべてのモデルの中で、HOG機能をSVMモデル(HOG+SVM)と組み合わせることで、すべてのデータセットで最高のパフォーマンス指標を得た。
numtadb, cmartdb, ekush, bdrwデータセットにおけるhog+svm法の認識精度は, それぞれ93.32%, 98.08%, 95.68%, 89.68%となり, 最近の最新手法と比較した。
関連論文リスト
- BanglaNet: Bangla Handwritten Character Recognition using Ensembling of
Convolutional Neural Network [0.0]
本稿では,複数の畳み込みニューラルネットワーク(CNN)のアンサンブルに基づく分類モデルを提案する。
Inception、ResNet、DenseNetといった最先端CNNモデルのアイデアに基づいた3つの異なるモデルが、拡張入力と非拡張入力の両方でトレーニングされている。
CMATERdb(英語版)、BanglaLekha-Isolated(英語版)、Ekush(英語版)の3つのベンチマークによる厳密な実験は、かなりの認識精度を示した。
論文 参考訳(メタデータ) (2024-01-16T01:08:19Z) - Text-to-3D with Classifier Score Distillation [80.14832887529259]
クラシファイアフリーガイダンスは最も必須ではなく、補助的なトリックだと考えられている。
我々はこの手法をスコア蒸留 (CSD) と名付け, 生成のための暗黙の分類モデルを用いて解釈できる。
我々は,形状生成,テクスチャ合成,形状編集など,テキストから3Dまでの各種タスクにおけるCSDの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-30T10:25:40Z) - BN-DRISHTI: Bangla Document Recognition through Instance-level
Segmentation of Handwritten Text Images [0.0]
本稿では,ハフ変換とアフィン変換を併用した深層学習に基づくオブジェクト検出フレームワーク(YOLO)を提案する。
BN-HTRdデータセットの拡張版として、786個の全ページ手書きBangla文書画像を示す。
Fスコアは行数99.97%,単語セグメンテーション98%であった。
論文 参考訳(メタデータ) (2023-05-31T04:08:57Z) - Advancing 3D finger knuckle recognition via deep feature learning [51.871256510747465]
接触のない3Dフィンガーナックルパターンは、識別性、距離からの視認性、利便性、利便性により、効果的な生体認証として出現している。
近年、ディープニューラルネットワークの中間機能を複数のスケールで同時に組み込むディープ・フィーチャー・コラボレーティブ・ネットワークが開発されている。
本稿では,3次元指のナックル画像を表現するために,最小次元の識別特徴ベクトルを学習する可能性を検討することにより,本手法を推し進める。
論文 参考訳(メタデータ) (2023-01-07T20:55:16Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - Deep Hough Voting for Robust Global Registration [52.40611370293272]
6次元変換パラメータ空間におけるハフ投票を利用した実世界の3Dスキャンのペア登録のための効率的なフレームワークを提案する。
提案手法は, 3DMatch と 3DLoMatch のベンチマークにおいて, KITTI odometry データセットで同等の性能を達成しながら, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-09-09T14:38:06Z) - End-to-End Approach for Recognition of Historical Digit Strings [2.0754848504005583]
ARDISデータセット(4桁長弦)に存在する古代の筆跡の難易度に対処するエンドツーエンドのセグメンテーションフリー深層学習手法を提案する。
VGG-16ディープモデルのわずかな変更により、フレームワークは93.2%の認識率を達成でき、メソッド、セグメンテーション、および融合方法のない実現可能なソリューションであることが示されています。
論文 参考訳(メタデータ) (2021-04-28T09:39:29Z) - A Skip-connected Multi-column Network for Isolated Handwritten Bangla
Character and Digit recognition [12.551285203114723]
マルチスケールマルチカラムスキップ畳み込みニューラルネットワークを用いた非明示的特徴抽出手法を提案する。
本手法は,手書き文字と数字の4つの公開データセットを用いて評価する。
論文 参考訳(メタデータ) (2020-04-27T13:18:58Z) - Sparse Concept Coded Tetrolet Transform for Unconstrained Odia Character
Recognition [0.0]
スパースの概念を符号化したテトロレットを用いて,制約なしの英数字に対する新しい画像表現手法を提案する。
提案するOCRシステムは,PCA,SparsePCA,Slantletなどのスパースベース技術よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-03T13:20:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。