論文の概要: Augmentation of base classifier performance via HMMs on a handwritten
character data set
- arxiv url: http://arxiv.org/abs/2111.10204v1
- Date: Wed, 17 Nov 2021 15:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 05:58:57.611425
- Title: Augmentation of base classifier performance via HMMs on a handwritten
character data set
- Title(参考訳): 手書き文字データセット上でのHMMによるベース分類器の性能向上
- Authors: H\'elder Campos and Nuno Paulino
- Abstract要約: 本稿では,現代ラテン文字の文字認識のための基本分類器の性能について述べる。
修正後の最高の分類性能は89.8%であり、平均68.1%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents results of a study of the performance of several base
classifiers for recognition of handwritten characters of the modern Latin
alphabet. Base classification performance is further enhanced by utilizing
Viterbi error correction by determining the Viterbi sequence. Hidden Markov
Models (HMMs) models exploit relationships between letters within a word to
determine the most likely sequence of characters. Four base classifiers are
studied along with eight feature sets extracted from the handwritten dataset.
The best classification performance after correction was 89.8%, and the average
was 68.1%
- Abstract(参考訳): 本稿では,近代ラテン語アルファベットの手書き文字認識のためのベース分類器の性能について検討した。
ビタビ系列を決定することにより、ビタビ誤り補正を利用することにより、ベース分類性能をさらに向上する。
隠れマルコフモデル(HMM)モデルは、単語内の文字間の関係を利用して、最も可能性の高い文字列を決定する。
4つの基本分類器と8つの特徴集合を手書きデータセットから抽出した。
修正後の最高の分類性能は89.8%、平均68.1%であった。
関連論文リスト
- Self-Supervised Learning Based Handwriting Verification [23.983430206133793]
ResNetベースの変分オートエンコーダ(VAE)は76.3%の精度で他の生成手法よりも優れていることを示す。
著者検証の下流作業にVAEとVICRegを併用し,ResNet-18の教師付きベースラインを10%のライターラベルで比較したところ,精度は6.7%,9%向上した。
論文 参考訳(メタデータ) (2024-05-28T16:11:11Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Prompt Algebra for Task Composition [131.97623832435812]
素早いチューニングを伴うビジュアル言語モデルを基本分類器として検討する。
合成分類器の性能向上のための制約付きプロンプトチューニングを提案する。
UTZapposでは、最高のベースモデルに対する分類精度を平均8.45%向上させる。
論文 参考訳(メタデータ) (2023-06-01T03:20:54Z) - AttriCLIP: A Non-Incremental Learner for Incremental Knowledge Learning [53.32576252950481]
連続学習は、モデルが逐次到着したデータから段階的に知識を学習できるようにすることを目的としている。
本稿では,新しいクラスやタスクの知識を段階的に抽出する,AttriCLIPという非インクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T07:39:17Z) - Comparison Study Between Token Classification and Sequence
Classification In Text Classification [0.45687771576879593]
自然言語処理タスクには教師なしの機械学習技術が適用されており、GLUEなどのベンチマークを上回る成功を収めている。
言語モデルの構築はひとつの言語でよい結果に近づき、分類、要約、生成などの複数のNLPタスクにボックスモデルから適用することができる。
論文 参考訳(メタデータ) (2022-11-25T05:14:58Z) - Language Model Classifier Aligns Better with Physician Word Sensitivity
than XGBoost on Readmission Prediction [86.15787587540132]
語彙レベルでモデルの振る舞いを精査する尺度である感度スコアを導入する。
本実験は,感度スコアのランク相関に基づいて,臨床医と分類医の意思決定論理を比較した。
論文 参考訳(メタデータ) (2022-11-13T23:59:11Z) - Layer or Representation Space: What makes BERT-based Evaluation Metrics
Robust? [29.859455320349866]
本稿では,テキスト生成において最もポピュラーな埋め込みベースの指標であるBERTScoreのロバスト性について検討する。
a) 入力ノイズや未知のトークンの量が増加すると, 標準ベンチマークにおける人体評価との相関が最も高い埋め込みベースのメトリクスが, 最小の相関を持つことを示す。
論文 参考訳(メタデータ) (2022-09-06T09:10:54Z) - Text Classification and Clustering with Annealing Soft Nearest Neighbor
Loss [0.0]
私たちは、より優れた自然言語表現を学ぶために歪曲を使用します。
テキスト分類やテキストクラスタリングのタスクに採用しています。
提案手法は,AG Newsデータセット上で90.11%の精度で,テストクラスタリング精度は88%であった。
論文 参考訳(メタデータ) (2021-07-23T09:05:39Z) - Unsupervised Document Embedding via Contrastive Augmentation [48.71917352110245]
本稿では,教師なしで文書表現を学習するためのデータ拡張手法と対比学習手法を提案する。
画像と事前学習に使われる最近のコントラスト的自己教師付き学習アルゴリズムに触発されて、高品質な文書埋め込みは様々なパラフレーズに不変であるべきだと仮定した。
本手法は,文書分類作業におけるSOTA手法よりも最大6.4%の分類誤差率を減少させることができる。
論文 参考訳(メタデータ) (2021-03-26T15:48:52Z) - Exploiting Class Labels to Boost Performance on Embedding-based Text
Classification [16.39344929765961]
異なる種類の埋め込みは、テキスト分類に使用される機能として、最近デファクトスタンダードになっている。
本稿では,単語の埋め込みを計算する際に,高頻度のカテゴリー排他語を重み付け可能な重み付け方式TF-CRを提案する。
論文 参考訳(メタデータ) (2020-06-03T08:53:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。