論文の概要: Self-paced learning to improve text row detection in historical
documents with missing lables
- arxiv url: http://arxiv.org/abs/2201.12216v1
- Date: Fri, 28 Jan 2022 16:17:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 14:51:54.262947
- Title: Self-paced learning to improve text row detection in historical
documents with missing lables
- Title(参考訳): 失語症例におけるテキスト列検出能力向上のための自己ペース学習
- Authors: Mihaela Gaman, Lida Ghadamiyan, Radu Tudor Ionescu, Marius Popescu
- Abstract要約: 本稿では,行検出性能を向上させる自己評価学習アルゴリズムを提案する。
我々は、接地トラス境界ボックスの数に関して、下降順に例をソートする。
セルフペースの学習手法を用いて、k回のイテレーションで行検出をトレーニングし、より基礎的なアノテーションの少ないバッチを徐々に追加します。
- 参考スコア(独自算出の注目度): 25.22937684446941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important preliminary step of optical character recognition systems is the
detection of text rows. To address this task in the context of historical data
with missing labels, we propose a self-paced learning algorithm capable of
improving the row detection performance. We conjecture that pages with more
ground-truth bounding boxes are less likely to have missing annotations. Based
on this hypothesis, we sort the training examples in descending order with
respect to the number of ground-truth bounding boxes, and organize them into k
batches. Using our self-paced learning method, we train a row detector over k
iterations, progressively adding batches with less ground-truth annotations. At
each iteration, we combine the ground-truth bounding boxes with pseudo-bounding
boxes (bounding boxes predicted by the model itself) using non-maximum
suppression, and we include the resulting annotations at the next training
iteration. We demonstrate that our self-paced learning strategy brings
significant performance gains on two data sets of historical documents,
improving the average precision of YOLOv4 with more than 12% on one data set
and 39% on the other.
- Abstract(参考訳): 光文字認識システムの重要な予備ステップは、テキスト列の検出である。
この課題にラベルを欠いた履歴データを用いて対処するために,行検出性能を向上させる自己評価学習アルゴリズムを提案する。
より地味なバウンディングボックスを持つページはアノテーションを欠く可能性が低いと推測する。
この仮説に基づいて, 基礎トラス境界ボックスの数に関して, 下位順のトレーニング例をソートし, それらをkバッチに整理する。
自己ペース学習法を用いて,k個の反復に対して列検出器を訓練し,基底アノテーションの少ないバッチを徐々に追加する。
各イテレーションにおいて、ゼロトラス境界ボックスと擬似バウンディングボックス(モデル自身によって予測されるバウンディングボックス)を非最大抑圧を用いて組み合わせ、次のトレーニングイテレーションで得られたアノテーションを含める。
我々の自己ペース学習戦略は、2つの歴史的文書のデータセットで大きなパフォーマンス向上をもたらし、yolov4の平均精度を1つのデータセットで12%以上、もう一方で39%向上させることを実証した。
関連論文リスト
- Adaptive Pre-training Data Detection for Large Language Models via Surprising Tokens [1.2549198550400134]
大きな言語モデル(LLM)は広く使われているが、プライバシー、セキュリティ、著作権については不透明なトレーニングデータのために懸念されている。
この問題に対する現在の解決策は、メンバーシップ推論攻撃(MIA)のような機械学習プライバシで探索されたテクニックを活用する。
本稿では、この信頼性を軽減し、同定を効果的に増幅する適応型事前学習データ検出法を提案する。
論文 参考訳(メタデータ) (2024-07-30T23:43:59Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Robustifying Sentiment Classification by Maximally Exploiting Few
Counterfactuals [16.731183915325584]
そこで本研究では,トレーニングデータの少数のアノテーションのみを必要とする新しい手法を提案する。
また,手作業による正解率を1%に抑えることで,顕著な精度向上を実現した。
論文 参考訳(メタデータ) (2022-10-21T08:30:09Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Using Self-Supervised Pretext Tasks for Active Learning [7.214674613451605]
本稿では,自己教師付きプレテキストタスクとユニークなデータサンプリング機能を利用して,困難かつ代表的なデータを選択する,新しいアクティブラーニング手法を提案する。
プレテキストタスク学習者は、未ラベルのセットでトレーニングされ、未ラベルのデータは、そのプレテキストタスクの損失によって、バッチにソートされ、グループ化される。
各イテレーションでは、メインタスクモデルを使用して、アノテートされるバッチで最も不確実なデータをサンプリングする。
論文 参考訳(メタデータ) (2022-01-19T07:58:06Z) - Boosting offline handwritten text recognition in historical documents
with few labeled lines [5.9207487081080705]
大規模データベースからより小さな歴史データベースへの転送学習の方法を分析する。
第2に、TLとデータ拡張を効率的に組み合わせる手法を解析する。
トレーニングセットにおける誤りラベリングの効果を緩和するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T11:59:35Z) - Bootstrapping Weakly Supervised Segmentation-free Word Spotting through
HMM-based Alignment [0.5076419064097732]
ボックスアノテーションを行わずに書き起こしを利用して単語スポッティングモデルを訓練する手法を提案する。
これは、隠れマルコフモデルに基づいたトレーニング不要アライメント手順によって行われる。
デジタル転写データは、すでに多くの関心を集めている部分に対して存在するので、より一般的な単語スポッティングの活用に向けた大きな進歩であると考えています。
論文 参考訳(メタデータ) (2020-03-24T19:41:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。