論文の概要: Does color modalities affect handwriting recognition? An empirical study
on Persian handwritings using convolutional neural networks
- arxiv url: http://arxiv.org/abs/2307.12150v1
- Date: Sat, 22 Jul 2023 19:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 17:38:17.252994
- Title: Does color modalities affect handwriting recognition? An empirical study
on Persian handwritings using convolutional neural networks
- Title(参考訳): 色調は筆跡認識に影響を及ぼすか?
畳み込みニューラルネットワークを用いたペルシア文字の実証的研究
- Authors: Abbas Zohrevand, Zahra Imani, Javad Sadri, Ching Y.Suen
- Abstract要約: 本研究は,手書き文字と単語の色調が認識精度や速度に影響を及ぼすかどうかを検討する。
13,330個の孤立した数字と62,500個の単語をペルシャの新たな手書きデータベースから選択した。
BW桁と単語画像上のCNNは、他の2色よりも高い性能を有する。
- 参考スコア(独自算出の注目度): 7.965705015476877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the methods on handwritten recognition in the literature are focused
and evaluated on Black and White (BW) image databases. In this paper we try to
answer a fundamental question in document recognition. Using Convolutional
Neural Networks (CNNs), as eye simulator, we investigate to see whether color
modalities of handwritten digits and words affect their recognition accuracy or
speed? To the best of our knowledge, so far this question has not been answered
due to the lack of handwritten databases that have all three color modalities
of handwritings. To answer this question, we selected 13,330 isolated digits
and 62,500 words from a novel Persian handwritten database, which have three
different color modalities and are unique in term of size and variety. Our
selected datasets are divided into training, validation, and testing sets.
Afterwards, similar conventional CNN models are trained with the training
samples. While the experimental results on the testing set show that CNN on the
BW digit and word images has a higher performance compared to the other two
color modalities, in general there are no significant differences for network
accuracy in different color modalities. Also, comparisons of training times in
three color modalities show that recognition of handwritten digits and words in
BW images using CNN is much more efficient.
- Abstract(参考訳): 文献における手書き認識の手法の多くは、白黒画像データベース(BW)に焦点をあてて評価されている。
本稿では,文書認識における基本的な質問に答える。
眼のシミュレータとして畳み込みニューラルネットワーク(CNN)を用いて、手書き桁と単語の色調が認識精度や速度に影響を及ぼすかどうかを調べる。
私たちの知る限りでは、これまでのところこの疑問は、手書きの3つのカラーモダリティすべてを持つ手書きデータベースが欠如しているため答えられていない。
この質問に答えるために,ペルシャの手書きデータベースから13,330個の孤立した数字と62,500個の単語を選択した。
選択したデータセットは、トレーニング、バリデーション、テストセットに分割されています。
その後、同様のcnnモデルをトレーニングサンプルで訓練する。
実験結果から,bw桁とワード画像のcnnは,他の2色モダリティに比べて高い性能を示したが,一般に,ネットワークの精度に有意な差は認められなかった。
また,3色モードのトレーニング時間の比較により,cnnを用いたbw画像における手書き文字と単語の認識がより効率的であることが判明した。
関連論文リスト
- Attention based End to end network for Offline Writer Identification on Word level data [3.5829161769306244]
注意駆動型畳み込みニューラルネットワーク(CNN)に基づく著者識別システムを提案する。
このシステムは、単語画像から抽出された断片として知られる画像セグメントを利用して、ピラミッドベースの戦略を用いて訓練されている。
提案アルゴリズムの有効性を3つのベンチマークデータベースで評価した。
論文 参考訳(メタデータ) (2024-04-11T09:41:14Z) - A CNN Based Framework for Unistroke Numeral Recognition in Air-Writing [17.426389959819538]
本稿では,一般的なビデオカメラ支援畳み込みニューラルネットワーク(CNN)を用いた空気書き込みフレームワークを提案する。
ジェネリックビデオカメラの前に固定色のマーカーを用いてジェスチャーを行い、続いて色に基づくセグメンテーションを行い、マーカーを識別し、マーカー先端の軌跡を追跡する。
提案されたフレームワークは、英語、ベンガル語、デバナガリ数字の個人独立性評価において、97.7%、95.4%、93.7%の認識率を達成した。
論文 参考訳(メタデータ) (2023-03-14T15:44:45Z) - Handwritten Word Recognition using Deep Learning Approach: A Novel Way
of Generating Handwritten Words [14.47529728678643]
本稿では,手書き文字を用いた多様な手書き語画像を生成する手法を提案する。
アプローチ全体は、大きくて多様な手書きの単語データセットを生成する過程を示している。
実験では,手書きの単語データセットが欠けているBangla言語をターゲットにした。
論文 参考訳(メタデータ) (2023-03-13T22:58:34Z) - Siamese based Neural Network for Offline Writer Identification on word
level data [7.747239584541488]
入力語画像に基づいて文書の著者を特定する新しい手法を提案する。
本手法はテキスト独立であり,入力画像のサイズに制約を課さない。
論文 参考訳(メタデータ) (2022-11-17T10:01:46Z) - Iris super-resolution using CNNs: is photo-realism important to iris
recognition? [67.42500312968455]
特に畳み込みニューラルネットワーク(CNN)を用いた単一画像超解像技術が出現している
本研究では, 虹彩認識のためのCNNを用いて, 単一画像の超解像を探索する。
彼らは、近赤外線虹彩画像の1.872のデータベースと携帯電話画像データベースのアプローチを検証する。
論文 参考訳(メタデータ) (2022-10-24T11:19:18Z) - Kurdish Handwritten Character Recognition using Deep Learning Techniques [26.23274417985375]
本稿では、深層学習技術を用いてクルド語アルファベットの文字を認識可能なモデルの設計と開発を試みる。
4000万枚以上の画像を含む、手書きのクルド文字のための包括的なデータセットが作成された。
結果,精度は96%,トレーニング精度は97%であった。
論文 参考訳(メタデータ) (2022-10-18T16:48:28Z) - Reading and Writing: Discriminative and Generative Modeling for
Self-Supervised Text Recognition [101.60244147302197]
テキスト画像の識別と生成を学習するために,コントラスト学習とマスク付き画像モデリングを導入する。
本手法は,不規則なシーンテキスト認識データセットにおいて,従来の自己教師付きテキスト認識手法を10.2%~20.2%向上させる。
提案したテキスト認識器は,11のベンチマークで平均5.3%の精度で従来のテキスト認識手法を上回り,モデルサイズが類似している。
論文 参考訳(メタデータ) (2022-07-01T03:50:26Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z) - Multi-Modal Graph Neural Network for Joint Reasoning on Vision and Scene
Text [93.08109196909763]
我々は,新しいVQAアプローチであるMulti-Modal Graph Neural Network (MM-GNN)を提案する。
これはまず3つの部分グラフからなるグラフとして表現され、それぞれ視覚的、意味的、数値的な様相を描いている。
次に3つのアグリゲータを導入し、あるグラフから別のグラフへのメッセージ転送を誘導し、様々なモードでコンテキストを利用する。
論文 参考訳(メタデータ) (2020-03-31T05:56:59Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。