論文の概要: Tamil Vowel Recognition With Augmented MNIST-like Data Set
- arxiv url: http://arxiv.org/abs/2006.08367v2
- Date: Tue, 16 Jun 2020 19:20:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 13:34:37.318121
- Title: Tamil Vowel Recognition With Augmented MNIST-like Data Set
- Title(参考訳): MNISTライクなデータセットを用いたタミル母音認識
- Authors: Muthiah Annamalai
- Abstract要約: 精度92%のデータセットを構築するための6万グレースケール28×28ピクセルの能力について報告する。
また、同じネットワーク上で、トップ1分類精度70%、トップ2分類精度92%を手書き母音で報告した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We report generation of a MNIST [4] compatible data set [1] for Tamil vowels
to enable building a classification DNN or other such ML/AI deep learning [2]
models for Tamil OCR/Handwriting applications. We report the capability of the
60,000 grayscale, 28x28 pixel dataset to build a 92% accuracy (training) and
82% cross-validation 4-layer CNN, with 100,000+ parameters, in TensorFlow. We
also report a top-1 classification accuracy of 70% and top-2 classification
accuracy of 92% on handwritten vowels showing, for the same network.
- Abstract(参考訳): タミル母音のためのMNIST[4]互換データセット[1]を生成して,タミルOCR/Handwritingアプリケーションのための分類DNNや他のML/AIディープラーニング[2]モデルの構築を可能にする。
TensorFlowでは6万のグレースケール、28x28ピクセルのデータセットを使用して、92%の精度(トレーニング)と82%のクロスバリデーション4層CNNを10,000以上のパラメータで構築しています。
また,同一ネットワーク上で示される手書き母音におけるtop-1分類精度は70%,top-2分類精度は92%であった。
関連論文リスト
- Text Quality-Based Pruning for Efficient Training of Language Models [66.66259229732121]
本研究では,大容量NLPデータセットのテキスト品質を数値評価する手法を提案する。
テキスト品質指標を提案することにより、低品質テキストインスタンスを識別・排除する枠組みを確立する。
複数のモデルやデータセットに対する実験結果から,このアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-04-26T18:01:25Z) - Text recognition on images using pre-trained CNN [2.191505742658975]
認識はChars74Kデータセットを使用してトレーニングされ、最高のモデル結果はIIIT-5K-Datasetのサンプルでテストされる。
検証データには97.94%、テストデータには98.16%、IIIT-5K-Datasetには95.62%の精度がある。
論文 参考訳(メタデータ) (2023-02-10T08:09:51Z) - Deep Multi-Scale Representation Learning with Attention for Automatic
Modulation Classification [11.32380278232938]
畳み込み深部畳み込みニューラルネットワークをベースとしたAMCにおいて,カーネルサイズを大きくすることで,経験的な改善が得られた。
本稿では,大規模なカーネルサイズとSE機構(SE-MSFN)を備えたマルチスケール機能ネットワークを提案する。
SE-MSFNは、よく知られたRADIOML 2018.01Aデータセットで最先端の分類性能を達成する。
論文 参考訳(メタデータ) (2022-08-31T07:26:09Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - OneAligner: Zero-shot Cross-lingual Transfer with One Rich-Resource
Language Pair for Low-Resource Sentence Retrieval [91.76575626229824]
文検索タスク用に特別に設計されたアライメントモデルであるOneAlignerを提案する。
大規模並列多言語コーパス(OPUS-100)の全ての言語ペアで訓練すると、このモデルは最先端の結果が得られる。
実験結果から,文アライメントタスクの性能はモノリンガルおよび並列データサイズに大きく依存することがわかった。
論文 参考訳(メタデータ) (2022-05-17T19:52:42Z) - Data and knowledge-driven approaches for multilingual training to
improve the performance of speech recognition systems of Indian languages [0.0]
対象言語を対象とした自動音声認識システムの多言語学習のためのデータと知識駆動型アプローチを提案する。
電話/セノンマッピングでは、ディープニューラルネットワーク(DNN)がセノンや電話をある言語から他の言語にマッピングすることを学ぶ。
他の手法では、全ての言語に対して同時に音響情報をモデル化する。
論文 参考訳(メタデータ) (2022-01-24T07:17:17Z) - Exploiting Hybrid Models of Tensor-Train Networks for Spoken Command
Recognition [9.262289183808035]
本研究の目的は,低複雑性音声コマンド認識(SCR)システムの設計である。
我々は、テンソルトレイン(TT)ネットワークの深いハイブリッドアーキテクチャを利用して、エンドツーエンドのSRCパイプラインを構築する。
提案したCNN+(TT-DNN)モデルでは,CNNモデルより4倍少ないモデルパラメータで96.31%の競争精度が得られる。
論文 参考訳(メタデータ) (2022-01-11T05:57:38Z) - TNCR: Table Net Detection and Classification Dataset [62.997667081978825]
TNCRデータセットは、スキャンされた文書画像のテーブル検出と5つのクラスに分類される。
我々は、テーブル検出のための最先端のディープラーニングベースの手法を実装し、いくつかの強力なベースラインを構築した。
我々は、テーブルの検出、分類、構造認識に対するより深い学習アプローチを促進するために、TNCRをオープンソースにしました。
論文 参考訳(メタデータ) (2021-06-19T10:48:58Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。