論文の概要: LAIF: AI, Deep Learning for Germany Suetterlin Letter Recognition and
Generation
- arxiv url: http://arxiv.org/abs/2101.10450v1
- Date: Wed, 30 Dec 2020 08:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:03:53.730211
- Title: LAIF: AI, Deep Learning for Germany Suetterlin Letter Recognition and
Generation
- Title(参考訳): laif:ai、ドイツのディープラーニング、suetterlinの文字認識と生成
- Authors: Enkhtogtokh Togootogtokh, Christian Klasen
- Abstract要約: ドイツのSuetterlin文字認識と生成のためのLudwig AI Framework(LAIF)と呼ばれるディープラーニングフレームワークを提案します。
本研究は,手書き文字のハードコピーのラベル付けに膨大なコストと深層モデルのトレーニング用データがないことから,手書き文字を合成データとして生成する深部生成逆数ネットワークを用いた手法についても紹介する。
- 参考スコア(独自算出の注目度): 1.3960152426268764
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the successful early implementation of deep learning AI technology was
on letter recognition. With the recent breakthrough of artificial intelligence
(AI) brings more solid technology for complex problems like handwritten letter
recognition and even automatic generation of them. In this research, we
proposed deep learning framework called Ludwig AI Framework(LAIF) for Germany
Suetterlin letter recognition and generation. To recognize Suetterlin letter,
we proposed deep convolutional neural network. Since lack of big amount of data
to train for the deep models and huge cost to label existing hard copy of
handwritten letters, we also introduce the methodology with deep generative
adversarial network to generate handwritten letters as synthetic data. Main
source code is in https://github.com/enkhtogtokh/LAIF repository.
- Abstract(参考訳): ディープラーニングAI技術の初期の実装として成功したのは、文字認識だった。
人工知能(AI)の最近の進歩により、手書き文字認識や自動生成といった複雑な問題に対して、より強固な技術がもたらされる。
本研究では,ドイツにおける文字認識・生成のためのLudwig AI Framework(LAIF)というディープラーニングフレームワークを提案する。
Suetterlin文字を認識するために,我々は深層畳み込みニューラルネットワークを提案する。
本研究は,手書き文字のハードコピーのラベル付けに膨大なコストと深層モデルのトレーニング用データがないことから,手書き文字を合成データとして生成する深部生成逆数ネットワークを用いた手法についても紹介する。
ソースコードはhttps://github.com/enkhtogtokh/LAIFリポジトリにある。
関連論文リスト
- Raidar: geneRative AI Detection viA Rewriting [42.477151044325595]
大規模な言語モデル(LLM)は、書き直しのタスクを行う場合、AI生成テキストよりも人間の書き起こしテキストを変更する傾向にある。
テキストの書き直しを LLM に促し,出力の編集距離を計算することで,AI 生成コンテンツを検出する手法を提案する。
この結果から,機械自体のレンズを通した機械生成テキストのユニークなインプリントが明らかになった。
論文 参考訳(メタデータ) (2024-01-23T18:57:53Z) - AI Content Self-Detection for Transformer-based Large Language Models [0.0]
本稿では、直接起点検出の概念を導入し、生成型AIシステムが出力を認識し、人文テキストと区別できるかどうかを評価する。
GoogleのBardモデルは、精度94%の自己検出の最大の能力を示し、OpenAIのChatGPTは83%である。
論文 参考訳(メタデータ) (2023-12-28T10:08:57Z) - RADAR: Robust AI-Text Detection via Adversarial Learning [69.5883095262619]
RADARはパラフラザーと検出器の対向訓練に基づいている。
パラフレーズの目標は、AIテキスト検出を避けるために現実的なコンテンツを生成することである。
RADARは検出器からのフィードバックを使ってパラフラザーを更新する。
論文 参考訳(メタデータ) (2023-07-07T21:13:27Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - Handwritten Digit Recognition using Machine and Deep Learning Algorithms [0.0]
我々は,MNISTデータセットを用いて,Support Vector Machines (SVM), Multi-Layer Perceptron (MLP), Convolution Neural Network (CNN)モデルを用いて手書き桁認識を行った。
我々の主な目的は、上述したモデルの精度と実行時間を比較して、桁認識に最適なモデルを得ることである。
論文 参考訳(メタデータ) (2021-06-23T18:23:01Z) - SmartPatch: Improving Handwritten Word Imitation with Patch
Discriminators [67.54204685189255]
本稿では,現在の最先端手法の性能を向上させる新手法であるSmartPatchを提案する。
我々は、よく知られたパッチ損失と、平行訓練された手書きテキスト認識システムから収集された情報を組み合わせる。
これにより、より強化された局所識別器が実現し、より現実的で高品質な手書き文字が生成される。
論文 参考訳(メタデータ) (2021-05-21T18:34:21Z) - One-shot Compositional Data Generation for Low Resource Handwritten Text
Recognition [10.473427493876422]
低リソース手書きテキスト認識は、わずかな注釈付きデータと非常に限られた言語情報のために難しい問題です。
本稿では,ベイズプログラム学習に基づくデータ生成手法を用いてこの問題に対処する。
大量の注釈付き画像を必要とする従来型の手法とは対照的に,各記号のサンプルを1つだけ,所望のアルファベットから生成することが可能である。
論文 参考訳(メタデータ) (2021-05-11T18:53:01Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。