論文の概要: High Cursive Complex Character Recognition using GAN External Classifier
- arxiv url: http://arxiv.org/abs/2509.03062v1
- Date: Wed, 03 Sep 2025 06:46:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.440575
- Title: High Cursive Complex Character Recognition using GAN External Classifier
- Title(参考訳): GAN外部分類器を用いた高曲線複素文字認識
- Authors: S M Rafiuddin,
- Abstract要約: 手書き文字は、その複雑で曲的な性質のために分類するのが難しい。
本稿では,高いカーシブかつ複雑な文字を分類できるジェネレーティブ・アドバイサル・ネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Handwritten characters can be trickier to classify due to their complex and cursive nature compared to simple and non-cursive characters. We present an external classifier along with a Generative Adversarial Network that can classify highly cursive and complex characters. The generator network produces fake handwritten character images, which are then used to augment the training data after adding adversarially perturbed noise and achieving a confidence score above a threshold with the discriminator network. The results show that the accuracy of convolutional neural networks decreases as character complexity increases, but our proposed model, ADA-GAN, remains more robust and effective for both cursive and complex characters.
- Abstract(参考訳): 手書き文字は、単純で非曲芸的な文字に比べて、その複雑で曲的な性質から分類するのが難易度が高い。
本稿では、高いカーシブかつ複雑な文字を分類できる生成逆数ネットワークとともに、外部分類器を提案する。
ジェネレータネットワークは、逆摂動雑音を付加し、識別器ネットワークとのしきい値以上の信頼スコアを達成した後、トレーニングデータを増強するために、偽手書き文字画像を生成する。
その結果, 畳み込みニューラルネットワークの精度は, 文字の複雑さが増加するにつれて低下することがわかったが, 提案モデルであるADA-GANは, カーシブ文字と複素文字の両方に対して, より堅牢かつ効果的であることがわかった。
関連論文リスト
- Performance Analysis of Few-Shot Learning Approaches for Bangla Handwritten Character and Digit Recognition [0.9895793818721335]
本研究は,Bangla手書き文字と数字の認識における数ショット学習手法の性能について検討する。
本稿では,手書き文字と数字の認識精度を向上させるために設計されたハイブリッドネットワークであるSynergiProtoNetを紹介する。
論文 参考訳(メタデータ) (2025-05-31T08:03:10Z) - Skeleton and Font Generation Network for Zero-shot Chinese Character Generation [53.08596064763731]
そこで我々は,より堅牢な漢字フォント生成を実現するために,新しいSkeleton and Font Generation Network (SFGN)を提案する。
ミススペル文字について実験を行い、その大部分は共通文字とわずかに異なる。
提案手法は、生成した画像の有効性を視覚的に実証し、現在最先端のフォント生成方法より優れていることを示す。
論文 参考訳(メタデータ) (2025-01-14T12:15:49Z) - Boosting Semi-Supervised Scene Text Recognition via Viewing and Summarizing [71.29488677105127]
既存のシーンテキスト認識(STR)手法は、特に芸術的で歪んだ文字に対して、挑戦的なテキストを認識するのに苦労している。
人的コストを伴わずに、合成データと実際のラベルなしデータを活用して、対照的な学習ベースのSTRフレームワークを提案する。
本手法は,共通ベンチマークとUnion14M-Benchmarkで平均精度94.7%,70.9%のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-11-23T15:24:47Z) - SAN: Structure-Aware Network for Complex and Long-tailed Chinese Text Recognition [9.190324058948987]
複雑な文字の認識性能を向上させるため,階層型合成情報を利用した構造認識ネットワークを提案する。
実験により,提案手法は複雑な文字と尾文字の性能を大幅に向上し,全体的な性能が向上することを示した。
論文 参考訳(メタデータ) (2024-11-10T07:41:00Z) - Match me if you can: Semi-Supervised Semantic Correspondence Learning with Unpaired Images [76.47980643420375]
本稿では,意味的対応の学習に固有のデータ・ハングリー・マターが存在するという仮説に基づく。
我々は,機械の監督を通じて,ペア化されたキーポイントを確実に強化する単純な機械注釈器を実証する。
我々のモデルは,SPair-71k,PF-PASCAL,PF-WILLOWといった意味対応学習ベンチマークの最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-30T13:22:15Z) - Learning Generative Structure Prior for Blind Text Image
Super-resolution [153.05759524358467]
我々は、キャラクター構造にもっと焦点をあてた小説を提示する。
StyleGANの生成空間を制限するため、各文字の離散的な特徴をコードブックに格納する。
提案した構造は, 従来より強い文字特異的指導を行い, 指定された文字の忠実で正確なストロークを復元する。
論文 参考訳(メタデータ) (2023-03-26T13:54:28Z) - A Transformer Architecture for Online Gesture Recognition of
Mathematical Expressions [0.0]
トランスフォーマーアーキテクチャは、グリフストロークに対応するオンライン手書きジェスチャーから表現木を構築するためのエンドツーエンドモデルを提供する。
注意機構は、表現の基本的な構文をエンコードし、学習し、強制するためにうまく利用された。
エンコーダは初めて、目に見えないオンラインの時間的データトークンによって、無限に大きな語彙を形成します。
論文 参考訳(メタデータ) (2022-11-04T17:55:55Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - SparseGAN: Sparse Generative Adversarial Network for Text Generation [8.634962333084724]
本稿では,識別器への入力として,意味解釈可能ながスパース文表現を生成するスパースGANを提案する。
このような意味豊かな表現により、効率の良い対人訓練のための不要なノイズを低減できるだけでなく、学習過程全体を完全に差別化できる。
論文 参考訳(メタデータ) (2021-03-22T04:44:43Z) - Separating Content from Style Using Adversarial Learning for Recognizing
Text in the Wild [103.51604161298512]
画像中の複数の文字の生成と認識のための逆学習フレームワークを提案する。
我々のフレームワークは、新しい最先端の認識精度を達成するために、最近の認識手法に統合することができる。
論文 参考訳(メタデータ) (2020-01-13T12:41:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。