論文の概要: Location-Aware Feature Selection Text Detection Network
- arxiv url: http://arxiv.org/abs/2004.10999v2
- Date: Tue, 26 May 2020 02:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:47:16.722250
- Title: Location-Aware Feature Selection Text Detection Network
- Title(参考訳): 位置認識特徴選択テキスト検出ネットワーク
- Authors: Zengyuan Guo, Zilin Wang, Zhihui Wang, Wanli Ouyang, Haojie Li, Wen
Gao
- Abstract要約: 我々は新しい位置認識機能選択テキスト検出ネットワーク(LASNet)を提案する。
LASNetは、異なる場所から適切な機能を選択し、バウンディングボックスの5つのコンポーネントを別々に予測し、これらのコンポーネントの組み合わせによって最終バウンディングボックスを取得する。
LASNetは、単一のモデルと単一スケールのテストで最先端のパフォーマンスを達成し、既存の回帰ベースの検出器よりも優れています。
- 参考スコア(独自算出の注目度): 98.35434435947462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regression-based text detection methods have already achieved promising
performances with simple network structure and high efficiency. However, they
are behind in accuracy comparing with recent segmentation-based text detectors.
In this work, we discover that one important reason to this case is that
regression-based methods usually utilize a fixed feature selection way, i.e.
selecting features in a single location or in neighbor regions, to predict
components of the bounding box, such as the distances to the boundaries or the
rotation angle. The features selected through this way sometimes are not the
best choices for predicting every component of a text bounding box and thus
degrade the accuracy performance. To address this issue, we propose a novel
Location-Aware feature Selection text detection Network (LASNet). LASNet
selects suitable features from different locations to separately predict the
five components of a bounding box and gets the final bounding box through the
combination of these components. Specifically, instead of using the
classification score map to select one feature for predicting the whole
bounding box as most of the existing methods did, the proposed LASNet first
learn five new confidence score maps to indicate the prediction accuracy of the
bounding box components, respectively. Then, a Location-Aware Feature Selection
mechanism (LAFS) is designed to weightily fuse the top-$K$ prediction results
for each component according to their confidence score, and to combine the all
five fused components into a final bounding box. As a result, LASNet predicts
the more accurate bounding boxes by using a learnable feature selection way.
The experimental results demonstrate that our LASNet achieves state-of-the-art
performance with single-model and single-scale testing, outperforming all
existing regression-based detectors.
- Abstract(参考訳): 回帰に基づくテキスト検出手法はすでに、単純なネットワーク構造と高い効率で有望な性能を達成している。
しかし、最近のセグメンテーションベースのテキスト検出器と比較して精度が遅れている。
本研究は, 回帰に基づく手法が, 境界や回転角との距離などの境界ボックスの成分を予測するために, 特定の特徴選択手法(すなわち, 一つの位置や隣接領域における特徴の選択)を用いるのが一般的であることを示す。
このような方法で選択された機能は、テキストバウンディングボックスのすべてのコンポーネントを予測するための最善の選択ではない場合もあります。
この問題に対処するために,新しい位置認識機能Selection Text Detection Network (LASNet)を提案する。
LASNetは、異なる場所から適切な機能を選択し、バウンディングボックスの5つのコンポーネントを別々に予測し、これらのコンポーネントを組み合わせて最終バウンディングボックスを取得する。
具体的には、分類スコアマップを使用して、既存の手法と同様に境界ボックス全体を予測するための1つの特徴を選択する代わりに、LASNetはまず5つの新しい信頼スコアマップを学習し、それぞれ境界ボックスコンポーネントの予測精度を示す。
次に、位置認識特徴選択機構(LAFS)は、各コンポーネントの信頼度に応じて上位$K$予測結果を重く融合させ、これら5つの融合したコンポーネントを最終バウンディングボックスに結合するように設計する。
その結果、LASNetは学習可能な特徴選択方法を用いてより正確な境界ボックスを予測する。
実験結果から,lasnetは単一モデルおよび単一スケールテストで最先端の性能を達成し,既存の回帰型検出器を上回った。
関連論文リスト
- Unbalanced Optimal Transport: A Unified Framework for Object Detection [97.74382560746987]
不均衡最適輸送がオブジェクト検出に対する異なるアプローチをどのように統合するかを示す。
非平衡最適輸送を用いた物体検出モデルの訓練が最先端に到達可能であることを示す。
このアプローチはGPUの実装に適しており、大規模なモデルに有利であることが証明されている。
論文 参考訳(メタデータ) (2023-07-05T16:21:52Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - PDNet: Towards Better One-stage Object Detection with Prediction
Decoupling [37.83405509385431]
PDNetと呼ばれる予測ターゲット分離検出器を提案し,より柔軟な検出パラダイムを確立する。
バックボーンは1つのResNeXt-64x4d-101で、検出器はシングルスケールテストで48.7 APを達成した。
論文 参考訳(メタデータ) (2021-04-28T16:48:04Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - Grasp Proposal Networks: An End-to-End Solution for Visual Learning of
Robotic Grasps [31.021600064320168]
本研究では,一対一のカメラビューから観察される未知の物体に対して,多種多様な6-DOFグリップの予測を行う,GPNet(EnmphGrasp Proposal Network)を提案する。
GPNetは、個別だが通常の3Dグリッド角のグリップセンターのエンファンコーダを定義する、グリップ提案モジュールの鍵となる設計に基づいている。
本研究では,ルールベース基準,シミュレーションテスト,実検定を用いて6-DOFオブジェクトグリップの合成データセットを作成した。
論文 参考訳(メタデータ) (2020-09-26T14:14:52Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z) - Outlier Detection Ensemble with Embedded Feature Selection [42.8338013000469]
組込み特徴選択(ODEFS)を用いた外乱検出アンサンブルフレームワークを提案する。
各ランダムなサブサンプリングベースの学習コンポーネントに対して、ODEFSは、特徴選択と外れ値検出をペアのランキング式に統一する。
我々は、特徴選択と例選択を同時に最適化するために閾値付き自己評価学習を採用する。
論文 参考訳(メタデータ) (2020-01-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。