論文の概要: An approach to extract information from academic transcripts of HUST
- arxiv url: http://arxiv.org/abs/2304.11454v1
- Date: Sat, 22 Apr 2023 17:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:20:56.977599
- Title: An approach to extract information from academic transcripts of HUST
- Title(参考訳): HUSTの学術写本から情報抽出へのアプローチ
- Authors: Nguyen Quang Hieu, Nguyen Le Quy Duong, Le Quang Hoa, Nguyen Quang Dat
- Abstract要約: 多くのベトナムの学校では、成績は依然として手動でデータベースに入力されている。
本稿では,改良CRNNモデルを用いて,126文字の情報を抽出する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many Vietnamese schools, grades are still being inputted into the database
manually, which is not only inefficient but also prone to human error. Thus,
the automation of this process is highly necessary, which can only be achieved
if we can extract information from academic transcripts. In this paper, we test
our improved CRNN model in extracting information from 126 transcripts, with
1008 vertical lines, 3859 horizontal lines, and 2139 handwritten test scores.
Then, this model is compared to the Baseline model. The results show that our
model significantly outperforms the Baseline model with an accuracy of 99.6% in
recognizing vertical lines, 100% in recognizing horizontal lines, and 96.11% in
recognizing handwritten test scores.
- Abstract(参考訳): 多くのベトナムの学校では、成績は依然として手動でデータベースに入力されている。
したがって、このプロセスの自動化は非常に必要であり、学術文献から情報を取り出すことができれば達成できる。
本稿では,改良CRNNモデルを用いて,垂直線1008本,水平線3859本,手書きテストスコア2139本を用いて,126文字から情報抽出を行った。
そして、このモデルはベースラインモデルと比較される。
その結果, 縦線認識では99.6%, 横線認識では100%, 手書きテストスコア認識では96.11%の精度でベースラインモデルを大幅に上回っていることがわかった。
関連論文リスト
- Text-to-3D with Classifier Score Distillation [80.14832887529259]
クラシファイアフリーガイダンスは最も必須ではなく、補助的なトリックだと考えられている。
我々はこの手法をスコア蒸留 (CSD) と名付け, 生成のための暗黙の分類モデルを用いて解釈できる。
我々は,形状生成,テクスチャ合成,形状編集など,テキストから3Dまでの各種タスクにおけるCSDの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-30T10:25:40Z) - Self-Supervised Representation Learning for Online Handwriting Text
Classification [0.8594140167290099]
本稿では,日本語と中国語の個人によるオンライン筆跡から情報表現を抽出するための事前学習の前提として,新しいストロークマスキング(POSM)を提案する。
抽出した表現の質を評価するために,本質的評価法と外生的評価法の両方を用いる。
事前訓練されたモデルは、作家の識別、性別分類、手書きの分類といったタスクにおいて、最先端の結果を達成するために微調整される。
論文 参考訳(メタデータ) (2023-10-10T14:07:49Z) - Self-Alignment with Instruction Backtranslation [162.02529653768096]
本稿では,人文テキストに対応する命令を自動ラベル付けすることで,高品質な命令従言語モデルを構築する方法を提案する。
我々の手法は命令バックトランスレーションと呼ばれ、少量のシードデータと与えられたWebコーパスに基づいて微調整された言語モデルから始まります。
論文 参考訳(メタデータ) (2023-08-11T17:47:54Z) - Linear Classifier: An Often-Forgotten Baseline for Text Classification [12.792276278777532]
単語のバグ・オブ・ワード機能に線形分類器のような単純なベースラインを,高度な手法とともに実行することの重要性を論じる。
BERTのような先進的なモデルは、適切に適用すれば、最良の結果しか得られない。
論文 参考訳(メタデータ) (2023-06-12T13:39:54Z) - HomE: Homography-Equivariant Video Representation Learning [62.89516761473129]
マルチビュービデオの表現学習のための新しい手法を提案する。
提案手法は異なる視点間の暗黙的なマッピングを学習し,近隣の視点間のホモグラフィ関係を維持する表現空間を決定づける。
動作分類では,UCF101データセットの96.4%の3倍精度が得られた。
論文 参考訳(メタデータ) (2023-06-02T15:37:43Z) - Handwritten Word Recognition using Deep Learning Approach: A Novel Way
of Generating Handwritten Words [14.47529728678643]
本稿では,手書き文字を用いた多様な手書き語画像を生成する手法を提案する。
アプローチ全体は、大きくて多様な手書きの単語データセットを生成する過程を示している。
実験では,手書きの単語データセットが欠けているBangla言語をターゲットにした。
論文 参考訳(メタデータ) (2023-03-13T22:58:34Z) - Look Ma, Only 400 Samples! Revisiting the Effectiveness of Automatic
N-Gram Rule Generation for Spelling Normalization in Filipino [0.0]
フィリピンのNLPアプリケーションの開発には、オンラインテキストをモデルで処理する能力が不可欠である。
自動ルール抽出によるN-Gram + Damerau Levenshtein距離モデルを提案する。
論文 参考訳(メタデータ) (2022-10-06T04:41:26Z) - The Document Vectors Using Cosine Similarity Revisited [0.48733623015338234]
IMDBの映画レビューデータセットの現在の最先端テスト精度(97.42%)は、2019年の『citetthongtan-phienthrakul』センチメントによって報告された。
これまでに報告された97.42%の検定精度は無効であり、93.68%に補正されるべきである。
論文 参考訳(メタデータ) (2022-05-26T13:36:54Z) - Few-shot Instruction Prompts for Pretrained Language Models to Detect
Social Biases [55.45617404586874]
我々は、事前訓練された言語モデル(LM)を誘導する数ショットの命令ベース手法を提案する。
大規模なLMは、微調整モデルとよく似た精度で、異なる種類の細粒度バイアスを検出できることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:19:52Z) - Evaluation Toolkit For Robustness Testing Of Automatic Essay Scoring
Systems [64.4896118325552]
モデル逆算評価スキームと関連するメトリクスを用いて、現状のAESモデルを評価する。
AESモデルは非常に過大評価されていることがわかった。質問の話題に関係のない内容の重い修正(25%まで)でさえ、モデルが生み出すスコアを低下させることはない。
論文 参考訳(メタデータ) (2020-07-14T03:49:43Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。