論文の概要: Bootstrapping Weakly Supervised Segmentation-free Word Spotting through
HMM-based Alignment
- arxiv url: http://arxiv.org/abs/2003.11087v1
- Date: Tue, 24 Mar 2020 19:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:28:13.346615
- Title: Bootstrapping Weakly Supervised Segmentation-free Word Spotting through
HMM-based Alignment
- Title(参考訳): hmmアライメントによる弱教師付きセグメンテーションフリー単語スポッティング
- Authors: Tomas Wilkinson and Carl Nettelblad
- Abstract要約: ボックスアノテーションを行わずに書き起こしを利用して単語スポッティングモデルを訓練する手法を提案する。
これは、隠れマルコフモデルに基づいたトレーニング不要アライメント手順によって行われる。
デジタル転写データは、すでに多くの関心を集めている部分に対して存在するので、より一般的な単語スポッティングの活用に向けた大きな進歩であると考えています。
- 参考スコア(独自算出の注目度): 0.5076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in word spotting in handwritten documents has yielded impressive
results. This progress has largely been made by supervised learning systems,
which are dependent on manually annotated data, making deployment to new
collections a significant effort. In this paper, we propose an approach that
utilises transcripts without bounding box annotations to train
segmentation-free query-by-string word spotting models, given a partially
trained model. This is done through a training-free alignment procedure based
on hidden Markov models. This procedure creates a tentative mapping between
word region proposals and the transcriptions to automatically create additional
weakly annotated training data, without choosing any single alignment
possibility as the correct one. When only using between 1% and 7% of the fully
annotated training sets for partial convergence, we automatically annotate the
remaining training data and successfully train using it. On all our datasets,
our final trained model then comes within a few mAP% of the performance from a
model trained with the full training set used as ground truth. We believe that
this will be a significant advance towards a more general use of word spotting,
since digital transcription data will already exist for parts of many
collections of interest.
- Abstract(参考訳): 手書き文書における単語スポッティングの最近の研究は印象的な結果をもたらした。
この進歩は、手動でアノテートされたデータに依存する教師付き学習システムによって主に行われ、新しいコレクションへのデプロイに多大な労力がかかる。
本稿では,ボックスアノテーションを使わずに書き起こしを利用する手法を提案し,部分的学習モデルを用いてセグメンテーションフリーなクエリ・バイ・ストリング語スポッティングモデルを訓練する。
これは隠れマルコフモデルに基づくトレーニングフリーアライメント手順によって行われる。
この手順は、ワード領域の提案と書き起こしの間の仮マッピングを作成し、単一のアライメント可能性を選択することなく、弱注釈のトレーニングデータを自動的に生成する。
完全アノテートされたトレーニングセットの1%から7%を部分収束に使用する場合,残りのトレーニングデータを自動アノテートし,それを用いたトレーニングを成功させる。
すべてのデータセットにおいて、最終的なトレーニングされたモデルは、基底真理として使用される完全なトレーニングセットでトレーニングされたモデルによるパフォーマンスのマップ%以内になります。
これは、デジタル文字起こしデータが多くの興味のあるコレクションの一部にすでに存在するため、より汎用的な単語スポッティングへの大きな進歩であると考えています。
関連論文リスト
- Towards Efficient Active Learning in NLP via Pretrained Representations [1.90365714903665]
ファインチューニング大型言語モデル(LLM)は、今や幅広いアプリケーションにおけるテキスト分類の一般的なアプローチである。
能動学習ループ内でのLLMの事前学習表現を用いて,このプロセスを大幅に高速化する。
私たちの戦略は、アクティブな学習ループを通した微調整と同じようなパフォーマンスを得るが、計算コストは桁違いに低い。
論文 参考訳(メタデータ) (2024-02-23T21:28:59Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - WC-SBERT: Zero-Shot Text Classification via SBERT with Self-Training for
Wikipedia Categories [5.652290685410878]
本研究は,NLPにおけるゼロショットテキスト分類問題の解決に重点を置いている。
本稿では,テキストではなくラベルを用いた新たな自己学習戦略を提案する。
提案手法は,Yahoo Topic と AG News の双方のデータセットに対して,最先端の結果を得られる。
論文 参考訳(メタデータ) (2023-07-28T04:17:41Z) - Active Self-Training for Weakly Supervised 3D Scene Semantic
Segmentation [17.27850877649498]
本稿では,自己学習と能動的学習を組み合わせた3次元シーンの弱教師付きセグメンテーション手法を提案する。
提案手法は,従来の作業やベースラインよりもシーンセグメンテーションを改善する効果的な手法であることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:00:25Z) - Assisted Text Annotation Using Active Learning to Achieve High Quality
with Little Effort [9.379650501033465]
研究者は、手動の注釈だけで、大規模で高品質な注釈付きデータセットを作成できるツールを提案する。
我々は、アクティブラーニング(AL)アプローチと事前訓練された言語モデルを組み合わせて、アノテーションカテゴリを半自動で識別する。
予備的な結果から,ALを用いることで,複雑なフレームや微妙なフレームを正しく分類するアノテーションの数が大幅に削減されることがわかった。
論文 参考訳(メタデータ) (2021-12-15T13:14:58Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Jigsaw Clustering for Unsupervised Visual Representation Learning [68.09280490213399]
本稿では,新しいjigsawクラスタリング・プレテキストタスクを提案する。
本手法は画像内情報と画像間情報の両方を利用する。
トレーニングバッチの半分しか使用されていない場合、コントラスト学習方法にも匹敵します。
論文 参考訳(メタデータ) (2021-04-01T08:09:26Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Annotation-free Learning of Deep Representations for Word Spotting using
Synthetic Data and Self Labeling [4.111899441919165]
我々は、まだ機械学習技術を使っているアノテーションなしの手法を提案する。
我々は最先端のクエリ・バイ・サンプルのパフォーマンスを実現する。
我々の手法ではクエリ・バイ・ストリングが可能であるが、他のアノテーションのないメソッドではそうではない。
論文 参考訳(メタデータ) (2020-03-04T10:46:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。