論文の概要: Boosting offline handwritten text recognition in historical documents
with few labeled lines
- arxiv url: http://arxiv.org/abs/2012.02544v1
- Date: Fri, 4 Dec 2020 11:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:41:14.447583
- Title: Boosting offline handwritten text recognition in historical documents
with few labeled lines
- Title(参考訳): ラベル付き行数少ない歴史文書におけるオフライン手書き文字認識の促進
- Authors: Jos\'e Carlos Aradillas, Juan Jos\'e Murillo-Fuentes, Pablo M. Olmos
- Abstract要約: 大規模データベースからより小さな歴史データベースへの転送学習の方法を分析する。
第2に、TLとデータ拡張を効率的に組み合わせる手法を解析する。
トレーニングセットにおける誤りラベリングの効果を緩和するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.9207487081080705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we face the problem of offline handwritten text recognition
(HTR) in historical documents when few labeled samples are available and some
of them contain errors in the train set. Three main contributions are
developed. First we analyze how to perform transfer learning (TL) from a
massive database to a smaller historical database, analyzing which layers of
the model need a fine-tuning process. Second, we analyze methods to efficiently
combine TL and data augmentation (DA). Finally, an algorithm to mitigate the
effects of incorrect labelings in the training set is proposed. The methods are
analyzed over the ICFHR 2018 competition database, Washington and Parzival.
Combining all these techniques, we demonstrate a remarkable reduction of CER
(up to 6% in some cases) in the test set with little complexity overhead.
- Abstract(参考訳): 本稿では,ラベル付きサンプルがほとんど存在せず,一部に列車セットに誤りが含まれている場合に,過去の文書におけるオフライン手書き文字認識(HTR)の問題に直面する。
主な貢献は3つある。
まず,大規模データベースからより小さな履歴データベースへの転送学習(tl)の実施方法を分析し,モデルのどのレイヤが微調整プロセスを必要とするかを分析する。
第2に、TLとデータ拡張(DA)を効率的に組み合わせる手法を解析する。
最後に,学習セットにおける誤りラベルの影響を軽減するアルゴリズムを提案する。
これらの方法は、IDFHR 2018コンペティションデータベースであるWashington and Parzivalで分析される。
これらすべてのテクニックを組み合わせることで,複雑性のオーバーヘッドが少ないテストセットにおいて,CERの大幅な削減(場合によっては6%)を実証する。
関連論文リスト
- Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - Improving Text Embeddings with Large Language Models [59.930513259982725]
合成データと1k以下のトレーニングステップのみを用いて,高品質なテキスト埋め込みを実現するための,新しい簡易な手法を提案する。
我々は、93言語にまたがる数十万のテキスト埋め込みタスクのための多様な合成データを生成するために、プロプライエタリなLLMを活用している。
実験により,ラベル付きデータを使わずに,高度に競争力のあるテキスト埋め込みベンチマークにおいて高い性能が得られることが示された。
論文 参考訳(メタデータ) (2023-12-31T02:13:18Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Domain-Specific NER via Retrieving Correlated Samples [37.98414661072985]
本稿では,NERモデルの相関サンプルによる拡張を提案する。
人間の推論過程を明示的にシミュレートするために,多数決によるトレーニング不要な実体型校正を行う。
上記の2つの領域のデータセットに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-08-27T12:25:24Z) - Self-paced learning to improve text row detection in historical
documents with missing lables [25.22937684446941]
本稿では,行検出性能を向上させる自己評価学習アルゴリズムを提案する。
我々は、接地トラス境界ボックスの数に関して、下降順に例をソートする。
セルフペースの学習手法を用いて、k回のイテレーションで行検出をトレーニングし、より基礎的なアノテーションの少ないバッチを徐々に追加します。
論文 参考訳(メタデータ) (2022-01-28T16:17:48Z) - Text-Based Person Search with Limited Data [66.26504077270356]
テキストベースの人物検索(TBPS)は、画像ギャラリーから対象人物を記述的なテキストクエリで検索することを目的としている。
限られたデータによってもたらされる問題に対処する2つの新しいコンポーネントを持つフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:20:47Z) - One-shot Compositional Data Generation for Low Resource Handwritten Text
Recognition [10.473427493876422]
低リソース手書きテキスト認識は、わずかな注釈付きデータと非常に限られた言語情報のために難しい問題です。
本稿では,ベイズプログラム学習に基づくデータ生成手法を用いてこの問題に対処する。
大量の注釈付き画像を必要とする従来型の手法とは対照的に,各記号のサンプルを1つだけ,所望のアルファベットから生成することが可能である。
論文 参考訳(メタデータ) (2021-05-11T18:53:01Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Offline Handwritten Chinese Text Recognition with Convolutional Neural
Networks [5.984124397831814]
本稿では,畳み込みニューラルネットワークのみを用いてモデルを構築し,CTCを損失関数として利用する。
ICDAR 2013のコンペでは6.81%の文字誤り率(CER)を達成した。
論文 参考訳(メタデータ) (2020-06-28T14:34:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。