論文の概要: MRZ code extraction from visa and passport documents using convolutional
neural networks
- arxiv url: http://arxiv.org/abs/2009.05489v2
- Date: Tue, 20 Jul 2021 19:09:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:42:31.275510
- Title: MRZ code extraction from visa and passport documents using convolutional
neural networks
- Title(参考訳): 畳み込みニューラルネットワークを用いたビザおよびパスポート文書からのMRZコード抽出
- Authors: Yichuan Liu, Hailey James, Otkrist Gupta, Dan Raviv
- Abstract要約: 本稿では,任意の方向と大きさのパスポートのデジタル画像から,機械可読ゾーン(MRZ)情報を抽出できる畳み込みニューラルネットワークに基づく特別設計モデルを提案する。
パスポートとビザのデータセット上で,100%MRZ検出率と98.36%の文字認識マクロf1スコアを達成した。
- 参考スコア(独自算出の注目度): 9.959844922120524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting and extracting information from Machine-Readable Zone (MRZ) on
passports and visas is becoming increasingly important for verifying document
authenticity. However, computer vision methods for performing similar tasks,
such as optical character recognition (OCR), fail to extract the MRZ given
digital images of passports with reasonable accuracy. We present a specially
designed model based on convolutional neural networks that is able to
successfully extract MRZ information from digital images of passports of
arbitrary orientation and size. Our model achieved 100% MRZ detection rate and
98.36% character recognition macro-f1 score on a passport and visa dataset.
- Abstract(参考訳): パスポートやビザ上でのMRZ(Machine-Readable Zone)の情報の検出と抽出は,文書の真正性を検証する上でますます重要になっている。
しかし、光学式文字認識(OCR)のような類似のタスクを行うコンピュータビジョン手法では、パスポートのデジタル画像からMRZを適切な精度で抽出することができない。
本稿では、任意の向きと大きさのパスポートのデジタル画像からMRZ情報を抽出できる畳み込みニューラルネットワークに基づく特別設計モデルを提案する。
パスポートとビザデータセットで100%mrz検出率と98.36%文字認識マクロf1スコアを達成した。
関連論文リスト
- Mero Nagarikta: Advanced Nepali Citizenship Data Extractor with Deep Learning-Powered Text Detection and OCR [0.0]
そこで本研究では,テキストオブジェクトの正確な検出にYOLOv8を用いるロバストシステムと,最適化されたPyTesseractに基づくOCRアルゴリズムを提案する。
モバイルアプリケーションのコンテキスト内で実装されたこのシステムは、重要なテキスト情報の自動抽出を可能にする。
ネパール文字に最適化されたPyTesseractは、柔軟性と精度に関して標準のOCRよりも優れていた。
論文 参考訳(メタデータ) (2024-10-08T06:29:08Z) - See then Tell: Enhancing Key Information Extraction with Vision Grounding [54.061203106565706]
STNet(See then Tell Net)は,視覚基盤の正確な答えを提供するために設計された,新しいエンドツーエンドモデルである。
モデルの可視性を高めるため、広範囲に構造化されたテーブル認識データセットを収集する。
論文 参考訳(メタデータ) (2024-09-29T06:21:05Z) - Generating Automatically Print/Scan Textures for Morphing Attack Detection Applications [7.287930923353593]
主なシナリオの1つは、モルヒネ画像を印刷し、パスポートアプリケーションプロセスで各プリントを送信することである。
プライバシー上の懸念から、MADアルゴリズムをトレーニングするための小さなデータセットが利用可能だ。
本稿では,デジタル印刷/スキャン顔画像の自動生成のための転送転送に基づく2つの異なる手法を提案する。
論文 参考訳(メタデータ) (2024-08-18T17:53:26Z) - PHD: Pixel-Based Language Modeling of Historical Documents [55.75201940642297]
実史文書に類似した合成スキャンを生成する新しい手法を提案する。
我々は,1700-1900年代における合成スキャンと実際の歴史新聞を組み合わせて,我々のモデルであるPHDを事前訓練した。
我々は、この領域におけるその有用性を強調しながら、我々のモデルを歴史的QAタスクに適用することに成功しました。
論文 参考訳(メタデータ) (2023-10-22T08:45:48Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Handwritten Text Recognition Using Convolutional Neural Network [0.0]
OCR(Optical Character Recognition)は、手書き文字と印刷文字を電子的速度で包括的に認識する技術である。
本論文の目的は,国立科学技術研究所データセットに基づいてトレーニングされた畳み込みニューラルネットワークモデルの結果を示すことである。
論文 参考訳(メタデータ) (2023-07-11T15:57:15Z) - MMNet: Multi-Collaboration and Multi-Supervision Network for Sequential
Deepfake Detection [81.59191603867586]
シークエンシャルディープフェイク検出は、回復のための正しいシーケンスで偽の顔領域を特定することを目的としている。
偽画像の復元には、逆変換を実装するための操作モデルの知識が必要である。
顔画像の空間スケールや逐次順列化を扱うマルチコラボレーション・マルチスーパービジョンネットワーク(MMNet)を提案する。
論文 参考訳(メタデータ) (2023-07-06T02:32:08Z) - Encryption and encoding of facial images into quick response and high
capacity color 2d code for biometric passport security system [0.0]
QRコードに基づくバイオメトリックパスポート認証方式に符号化されたマルチモーダルバイオメトリック、セキュアな暗号化データおよび暗号化バイオメトリックスを提案する。
顔のマークサイズ認識は、最初は達成される。
公開アクセス可能な暗号化された生体認証パスポート情報をQRコードに符号化し、電子パスポートに挿入して保護を改善する。
論文 参考訳(メタデータ) (2022-03-17T05:25:39Z) - Indonesian ID Card Extractor Using Optical Character Recognition and
Natural Language Post-Processing [0.0]
OCR では、インドネシアの ID カードまたは kartu tanda penduduk (KTP) をテキストに抽出できます。
インドネシアのidカード画像50枚で0.78fスコア、idカード1枚あたり4510ミリ秒の抽出が必要。
論文 参考訳(メタデータ) (2020-12-15T11:28:48Z) - Automatic Counting and Identification of Train Wagons Based on Computer
Vision and Deep Learning [70.84106972725917]
提案手法は費用対効果が高く,RFIDに基づく解を容易に置き換えることができる。
このシステムは、識別コードに損傷があるため、列車のワゴンの一部を自動的に拒絶することができる。
論文 参考訳(メタデータ) (2020-10-30T14:56:54Z) - Towards Image-based Automatic Meter Reading in Unconstrained Scenarios:
A Robust and Efficient Approach [60.63996472100845]
本稿では,制約のないシナリオに着目したAMR(Automatic Meter Reading)のエンドツーエンドアプローチを提案する。
我々の主な貢献は、コーナー検出とカウンタ分類と呼ばれる新しいステージをAMRパイプラインに挿入することである。
信頼度が低い読みを拒絶した場合,AMRシステムは印象的な認識率(すなわち99%)を達成することを示す。
論文 参考訳(メタデータ) (2020-09-21T21:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。