論文の概要: AutoSTR: Efficient Backbone Search for Scene Text Recognition
- arxiv url: http://arxiv.org/abs/2003.06567v2
- Date: Thu, 16 Jul 2020 16:36:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:21:19.186413
- Title: AutoSTR: Efficient Backbone Search for Scene Text Recognition
- Title(参考訳): AutoSTR: シーンテキスト認識のための効率的なバックボーン検索
- Authors: Hui Zhang, Quanming Yao, Mingkun Yang, Yongchao Xu, Xiang Bai
- Abstract要約: テキストインスタンスの多様性とシーンの複雑さのため、シーンテキスト認識(STR)は非常に難しい。
テキスト認識性能を向上させるために,データ依存のバックボーンを検索するための自動STR(AutoSTR)を提案する。
実験によると、データ依存のバックボーンを検索することで、AutoSTRは標準ベンチマークにおける最先端のアプローチより優れている。
- 参考スコア(独自算出の注目度): 80.7290173000068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene text recognition (STR) is very challenging due to the diversity of text
instances and the complexity of scenes. The community has paid increasing
attention to boost the performance by improving the pre-processing image
module, like rectification and deblurring, or the sequence translator. However,
another critical module, i.e., the feature sequence extractor, has not been
extensively explored. In this work, inspired by the success of neural
architecture search (NAS), which can identify better architectures than
human-designed ones, we propose automated STR (AutoSTR) to search
data-dependent backbones to boost text recognition performance. First, we
design a domain-specific search space for STR, which contains both choices on
operations and constraints on the downsampling path. Then, we propose a
two-step search algorithm, which decouples operations and downsampling path,
for an efficient search in the given space. Experiments demonstrate that, by
searching data-dependent backbones, AutoSTR can outperform the state-of-the-art
approaches on standard benchmarks with much fewer FLOPS and model parameters.
- Abstract(参考訳): テキストインスタンスの多様性とシーンの複雑さのため、シーンテキスト認識(STR)は非常に難しい。
コミュニティは、修正やデブロアリングなどの前処理イメージモジュールやシーケンストランスレータを改善することで、パフォーマンス向上に注意を払っている。
しかし、他の重要なモジュール、すなわち特徴系列抽出器は、広く研究されていない。
本稿では,人間設計のものよりも優れたアーキテクチャを識別できるニューラルネットワーク検索(nas)の成功に触発されて,テキスト認識性能を向上させるために,データ依存のバックボーンを検索する自動str(autostr)を提案する。
まず、操作の選択とダウンサンプリングパスの制約の両方を含むSTRのドメイン固有検索空間を設計する。
そこで我々は,与えられた空間における効率的な探索のための2段階探索アルゴリズムを提案する。
実験により、データ依存のバックボーンを検索することで、AutoSTRはFLOPSやモデルパラメータをはるかに少なくした標準ベンチマークにおける最先端のアプローチより優れていることが示されている。
関連論文リスト
- Sequential Visual and Semantic Consistency for Semi-supervised Text
Recognition [56.968108142307976]
Scene Text Recognition (STR) は、大規模なアノテートデータを必要とする課題である。
既存のSTR法の多くは、STRモデルの性能を低下させ、ドメイン差を生じさせる合成データに頼っている。
本稿では,視覚的・意味的両面から単語レベルの整合性正則化を取り入れたSTRの半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2024-02-24T13:00:54Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Searching a High-Performance Feature Extractor for Text Recognition
Network [92.12492627169108]
優れた特徴抽出器を持つための原理を探求し,ドメイン固有の検索空間を設計する。
空間は巨大で複雑な構造であるため、既存のNASアルゴリズムを適用することはできない。
本研究では,空間内を効率的に探索する2段階のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-27T03:49:04Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Auto-Panoptic: Cooperative Multi-Component Architecture Search for
Panoptic Segmentation [144.50154657257605]
本稿では、バックボーン、セグメンテーションブランチ、フィーチャーフュージョンモジュールを含むすべての主要コンポーネントを同時に検索する効率的なフレームワークを提案する。
検索したアーキテクチャ、すなわちAuto-Panopticは、挑戦的なCOCOとADE20Kベンチマークに関する新しい最先端技術を実現します。
論文 参考訳(メタデータ) (2020-10-30T08:34:35Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。