論文の概要: PreSTU: Pre-Training for Scene-Text Understanding
- arxiv url: http://arxiv.org/abs/2209.05534v1
- Date: Mon, 12 Sep 2022 18:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:10:17.211855
- Title: PreSTU: Pre-Training for Scene-Text Understanding
- Title(参考訳): PreSTU: シーンテキスト理解のための事前トレーニング
- Authors: Jihyung Kil, Soravit Changpinyo, Xi Chen, Hexiang Hu, Sebastian
Goodman, Wei-Lun Chao, and Radu Soricut
- Abstract要約: シーンテキスト理解に特化して設計された簡単な事前学習レシピであるPreSTUを提案する。
PreSTUは、単純なOCR対応事前学習目標と、大規模な画像テキストデータセットと、オフザシェルフのOCR信号を組み合わせる。
本研究は,TextVQA,TextCaps,ST-VQA,VizWiz-VQAにおける事前学習目標の優位性を実証的に示す。
- 参考スコア(独自算出の注目度): 38.22046474758066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to read and reason about texts in an image is often lacking in
vision-and-language (V&L) models. How can we learn V&L models that exhibit
strong scene-text understanding (STU)? In this paper, we propose PreSTU, a
simple pre-training recipe specifically designed for scene-text understanding.
PreSTU combines a simple OCR-aware pre-training objective with a large-scale
image-text dataset with off-the-shelf OCR signals. We empirically demonstrate
the superiority of this pre-training objective on TextVQA, TextCaps, ST-VQA,
and VizWiz-VQA. We also study which factors affect STU performance, where we
highlight the importance of image resolution and dataset scale during
pre-training.
- Abstract(参考訳): 画像中のテキストの読み書き能力は、視覚と言語(V&L)モデルに欠けていることが多い。
強いシーンテキスト理解(STU)を示すV&Lモデルをどのように学習するか?
本稿では,シーンテキスト理解のための簡単な事前学習レシピであるPreSTUを提案する。
PreSTUは、単純なOCR対応事前学習目標と、大規模な画像テキストデータセットと、既製のOCR信号を組み合わせる。
本研究は,TextVQA,TextCaps,ST-VQA,VizWiz-VQAにおける事前学習目標の優位性を実証的に示す。
また,stu性能に影響する要因について検討し,事前学習時の画像分解能とデータセットスケールの重要性を強調する。
関連論文リスト
- UNIT: Unifying Image and Text Recognition in One Vision Encoder [51.140564856352825]
UNITは、単一のモデル内で画像とテキストの認識を統一することを目的とした、新しいトレーニングフレームワークである。
文書関連タスクにおいて,UNITが既存の手法を著しく上回ることを示す。
注目すべきなのは、UNITはオリジナルのビジョンエンコーダアーキテクチャを保持しており、推論とデプロイメントの点で費用がかからないことだ。
論文 参考訳(メタデータ) (2024-09-06T08:02:43Z) - Decoder Pre-Training with only Text for Scene Text Recognition [54.93037783663204]
シーンテキスト認識(STR)事前学習法は,主に合成データセットに依存し,顕著な進歩を遂げている。
STR(DPTR)用テキストのみを用いたDecoder Pre-trainingという新しい手法を提案する。
DPTRはCLIPテキストエンコーダが生成したテキスト埋め込みを擬似視覚埋め込みとして扱い、デコーダの事前訓練に使用する。
論文 参考訳(メタデータ) (2024-08-11T06:36:42Z) - MaskOCR: Text Recognition with Masked Encoder-Decoder Pretraining [68.05105411320842]
本稿では,従来のエンコーダ・デコーダ認識フレームワークにおいて,視覚と言語を事前学習するための新しいアプローチであるMaskOCRを提案する。
マスク付き画像モデリング手法を用いて、未ラベルのテキスト画像の集合を用いて特徴エンコーダを事前学習する。
テキストデータを合成されたテキスト画像に変換し、視覚と言語のデータモダリティを統一し、シーケンスデコーダの言語モデリング能力を向上する。
論文 参考訳(メタデータ) (2022-06-01T08:27:19Z) - Vision-Language Pre-Training for Boosting Scene Text Detectors [57.08046351495244]
シーンテキスト検出に視覚言語を用いた共同学習を特に応用する。
本稿では,視覚言語による事前学習を通して,文脈化された共同表現を学習することを提案する。
事前訓練されたモデルは、よりリッチなセマンティクスでより情報的な表現を生成することができる。
論文 参考訳(メタデータ) (2022-04-29T03:53:54Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - E2E-VLP: End-to-End Vision-Language Pre-training Enhanced by Visual
Learning [31.622393984150314]
本稿では,V+L理解と生成のための視覚言語事前学習モデルを提案する。
視覚表現と画像とテキスト間のセマンティックアライメントを共同で学習するための統合トランスフォーマーフレームワークを構築した。
論文 参考訳(メタデータ) (2021-06-03T12:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。