論文の概要: DenseBAM-GI: Attention Augmented DeneseNet with momentum aided GRU for
HMER
- arxiv url: http://arxiv.org/abs/2306.16482v1
- Date: Wed, 28 Jun 2023 18:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:54:32.291191
- Title: DenseBAM-GI: Attention Augmented DeneseNet with momentum aided GRU for
HMER
- Title(参考訳): densebam-gi:hmerのためのmomentum assisted gruを用いた注意強化denesenet
- Authors: Aniket Pal, Krishna Pratap Singh
- Abstract要約: 手書き数式における記号間の長さと空間的関係を正確に決定することは困難である。
本研究では,HMERのための新しいエンコーダデコーダアーキテクチャ(DenseBAM-GI)を提案する。
提案モデルは,表現認識率(Exprate)の観点から,最先端モデルに匹敵する性能を有する,効率的で軽量なアーキテクチャである。
- 参考スコア(独自算出の注目度): 4.518012967046983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of recognising Handwritten Mathematical Expressions (HMER) is
crucial in the fields of digital education and scholarly research. However, it
is difficult to accurately determine the length and complex spatial
relationships among symbols in handwritten mathematical expressions. In this
study, we present a novel encoder-decoder architecture (DenseBAM-GI) for HMER,
where the encoder has a Bottleneck Attention Module (BAM) to improve feature
representation and the decoder has a Gated Input-GRU (GI-GRU) unit with an
extra gate to make decoding long and complex expressions easier. The proposed
model is an efficient and lightweight architecture with performance equivalent
to state-of-the-art models in terms of Expression Recognition Rate (exprate).
It also performs better in terms of top 1, 2, and 3 error accuracy across the
CROHME 2014, 2016, and 2019 datasets. DenseBAM-GI achieves the best exprate
among all models on the CROHME 2019 dataset. Importantly, these successes are
accomplished with a drop in the complexity of the calculation and a reduction
in the need for GPU memory.
- Abstract(参考訳): 手書き数学表現(HMER)の認識は,デジタル教育や学術研究の分野において重要である。
しかし,手書き数式における記号間の長さと複雑な空間関係を正確に決定することは困難である。
本研究では,HMER 用の新しいエンコーダ・デコーダアーキテクチャ (DenseBAM-GI) を提案する。そこでは,エンコーダは特徴表現を改善するために Bottleneck Attention Module (BAM) を持ち,デコーダは拡張ゲート付きGated Input-GRU (GI-GRU) ユニットを持ち,長大かつ複雑な表現を容易にする。
提案モデルは、表現認識率(exprate)の観点から、最先端モデルと同等のパフォーマンスを持つ効率的で軽量なアーキテクチャである。
また、CROHME 2014、2016、2019データセットの上位1、2、3エラー精度も向上している。
DenseBAM-GIは、CROHME 2019データセットで、すべてのモデルの中で最高のエクスプロイトを達成する。
重要なことに、これらの成功は計算の複雑さの低下とgpuメモリの必要性の低減によって達成される。
関連論文リスト
- NAMER: Non-Autoregressive Modeling for Handwritten Mathematical Expression Recognition [80.22784377150465]
手書き数学的表現認識(HMER)は、文書理解における多種多様な応用のために、パターン認識において大きな注目を集めている。
本稿では,HMERのためのボトムアップ非自己回帰モデリング手法であるNAMERを初めて構築する。
NAMERは、VAT(Visual Aware Tokenizer)とPGD(Parallel Graph)を備える。
論文 参考訳(メタデータ) (2024-07-16T04:52:39Z) - ICAL: Implicit Character-Aided Learning for Enhanced Handwritten Mathematical Expression Recognition [9.389169879626428]
本稿では,グローバルな表現情報をマイニングするための新しい手法であるImplicit Character-Aided Learning(ICAL)を紹介する。
暗黙的な文字情報のモデリングと利用により、icalは手書きの数学的表現をより正確かつ文脈に配慮した解釈を実現する。
論文 参考訳(メタデータ) (2024-05-15T02:03:44Z) - Bidirectional Trained Tree-Structured Decoder for Handwritten
Mathematical Expression Recognition [51.66383337087724]
Handwriting Mathematical Expression Recognition (HMER) タスクは、OCRの分野における重要な分岐である。
近年の研究では、双方向コンテキスト情報の導入により、HMERモデルの性能が大幅に向上することが示されている。
本稿では,MF-SLT と双方向非同期トレーニング (BAT) 構造を提案する。
論文 参考訳(メタデータ) (2023-12-31T09:24:21Z) - Low-Resolution Self-Attention for Semantic Segmentation [96.81482872022237]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z) - When Counting Meets HMER: Counting-Aware Network for Handwritten
Mathematical Expression Recognition [57.51793420986745]
我々は、手書き数式認識(HMER)のための非従来型ネットワークであるCounting-Aware Network(CAN)を提案する。
シンボルレベルの位置アノテーションを使わずに各シンボルクラスの数を予測できる弱教師付きカウントモジュールを設計する。
HMERのベンチマークデータセットの実験により、エンコーダ・デコーダモデルの予測誤差を修正するために、共同最適化とカウント結果の両方が有用であることが検証された。
論文 参考訳(メタデータ) (2022-07-23T08:39:32Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - Handwritten Mathematical Expression Recognition with Bidirectionally
Trained Transformer [2.952085248753861]
トランスデコーダデコーダを使用してRNNベースのデコーダを置き換える。
実験により, CROHME 2014における現在の最先端手法のExpRateを2.23%改善した。
論文 参考訳(メタデータ) (2021-05-06T03:11:54Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Improving Attention-Based Handwritten Mathematical Expression
Recognition with Scale Augmentation and Drop Attention [35.82648516972362]
手書き数式認識(HMER)は手書き数式認識において重要な研究方向である。
HMERの性能は数式(ME)の二次元構造に苦しむ
本稿では,大規模化と縮小を考慮した高性能HMERモデルを提案する。
論文 参考訳(メタデータ) (2020-07-20T13:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。