論文の概要: Character Recognition in Byzantine Seals with Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2401.10741v1
- Date: Fri, 19 Jan 2024 14:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:33:37.063109
- Title: Character Recognition in Byzantine Seals with Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークを用いたビザンチンシールの文字認識
- Authors: Th\'eophile Rageau, Laurence Likforman-Sulem, Attilio Fiandrotti,
Victoria Eyharabide, B\'eatrice Caseau and Jean-Claude Cheynet
- Abstract要約: 本研究は,ビザンチン封印画像のテキストの自動読解に向けた最初の試みである。
ビザンティンのアザラシは一般的に横面の図像と裏面のギリシア文字で装飾されている。
- 参考スコア(独自算出の注目度): 4.64295985539118
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Seals are small coin-shaped artifacts, mostly made of lead, held with strings
to seal letters. This work presents the first attempt towards automatic reading
of text on Byzantine seal images.Byzantine seals are generally decorated with
iconography on the obverse side and Greek text on the reverse side. Text may
include the sender's name, position in the Byzantine aristocracy, and elements
of prayers. Both text and iconography are precious literary sources that wait
to be exploited electronically, so the development of computerized systems for
interpreting seals images is of paramount importance. This work's contribution
is hence a deep, two-stages, character reading pipeline for transcribing
Byzantine seal images. A first deep convolutional neural network (CNN) detects
characters in the seal (character localization). A second convolutional network
reads the localized characters (character classification). Finally, a
diplomatic transcription of the seal is provided by post-processing the two
network outputs. We provide an experimental evaluation of each CNN in isolation
and both CNNs in combination. All performances are evaluated by
cross-validation. Character localization achieves a mean average precision
(mAP@0.5) greater than 0.9. Classification of characters cropped from ground
truth bounding boxes achieves Top-1 accuracy greater than 0.92. End-to-end
evaluation shows the efficiency of the proposed approach when compared to the
SoTA for similar tasks.
- Abstract(参考訳): シールは小さな硬貨形の人工物で、主に鉛で作られ、文字を印字するための紐で保持されている。
この作品では、ビザンティンの封印画像のテキストの自動読取への最初の試みを示し、ビザンティンの封印は一般的に横面の図像と裏面のギリシア文字で装飾されている。
テキストには、送り手の名前、ビザンツ貴族の地位、祈りの要素が含まれている。
テキストと図像は電子的に活用されるのを待つ貴重な文献資料であり、アザラシ画像の解釈のためのコンピュータシステムの開発が最重要である。
この作品の貢献は、ビザンチンのシール画像を転写するための深い2段階の文字読み取りパイプラインである。
第1の深層畳み込みニューラルネットワーク(cnn)は、シールの文字(特性局在)を検出する。
第2の畳み込みネットワークは、ローカライズされた文字(キャラクタ分類)を読み込む。
最後に、2つのネットワーク出力を後処理してアザラシの外交的転写を行う。
それぞれのcnnを分離し,両方のcnnを組み合わせて実験的に評価する。
すべてのパフォーマンスはクロスバリデーションによって評価される。
文字ローカライゼーションは平均平均精度(mAP@0.5)が0.9以上に達する。
地上の真理境界箱から抽出した文字の分類は、トップ1の精度が0.92以上に達する。
エンド・ツー・エンドの評価は、類似したタスクに対してSoTAと比較して提案手法の効率性を示す。
関連論文リスト
- Language-Oriented Semantic Latent Representation for Image Transmission [38.62941652189033]
意味コミュニケーション(SC)の新しいパラダイムは、ビットの背後にある意味の提供に焦点を当てている。
データ・テキスト・モデルの最近の進歩は言語指向のSCを促進する。
テキストと圧縮画像の埋め込みの両方を通信する新しいSCフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-16T10:41:31Z) - Chinese Text Recognition with A Pre-Trained CLIP-Like Model Through
Image-IDS Aligning [61.34060587461462]
中国語テキスト認識(CTR)のための2段階フレームワークを提案する。
印刷文字画像とIdeographic Description Sequences (IDS) の整列によるCLIP様モデルの事前学習を行う。
この事前学習段階は、漢字を認識する人間をシミュレートし、各文字の標準表現を得る。
学習された表現はCTRモデルを監督するために使用され、従来の単一文字認識はテキストライン認識に改善される。
論文 参考訳(メタデータ) (2023-09-03T05:33:16Z) - Siamese based Neural Network for Offline Writer Identification on word
level data [7.747239584541488]
入力語画像に基づいて文書の著者を特定する新しい手法を提案する。
本手法はテキスト独立であり,入力画像のサイズに制約を課さない。
論文 参考訳(メタデータ) (2022-11-17T10:01:46Z) - Knowledge Mining with Scene Text for Fine-Grained Recognition [53.74297368412834]
本研究では,シーンテキスト画像の背景にある暗黙的な文脈知識をマイニングする,エンドツーエンドのトレーニング可能なネットワークを提案する。
我々は,KnowBertを用いて意味表現の関連知識を検索し,それを画像特徴と組み合わせ,きめ細かい分類を行う。
本手法は,3.72%のmAPと5.39%のmAPをそれぞれ上回っている。
論文 参考訳(メタデータ) (2022-03-27T05:54:00Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - Global Regular Network for Writer Identification [0.5330240017302619]
作家識別は偽造検知と法医学に実用的応用がある。
ネットワークは,グローバルな特徴を抽出するための入力としてページ手書きを,ローカル特徴を抽出するための入力として単語手書きを,という2つのブランチで構成されている。
実験は、著者識別分野におけるネットワークの強力な能力を示す。
論文 参考訳(メタデータ) (2022-01-16T02:43:38Z) - Transparent Human Evaluation for Image Captioning [70.03979566548823]
画像キャプションモデルのためのルーリックに基づく人間評価プロトコルを開発した。
人為的キャプションは機械的キャプションよりも著しく高品質であることを示す。
この研究は、画像キャプションのためのより透明な評価プロトコルを促進することを願っている。
論文 参考訳(メタデータ) (2021-11-17T07:09:59Z) - TextAdaIN: Fine-Grained AdaIN for Robust Text Recognition [3.3946853660795884]
テキスト認識では、ネットワークが過度に依存しているローカルイメージ統計であることを明らかにします。
テキスト認識性能を向上させるために,局所統計の信頼度を規制する手法を提案する。
提案手法はTextAdaINと呼ばれ,特徴マップに局所歪みを生じさせ,ネットワークが局所統計に過度に適合しないようにする。
論文 参考訳(メタデータ) (2021-05-09T10:47:48Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Benchmarking Scene Text Recognition in Devanagari, Telugu and Malayalam [34.83389169949119]
英語のシーンテキスト認識におけるDeep Learningベースのアプローチの成功に触発されて、3つのIndicスクリプトのシーンテキスト認識をポーズし、ベンチマークする。
Unicodeフォントから描画された合成語画像は、認識システムの訓練に使用される。
私たちは、単語画像を対応するテキストに転写するために、セグメンテーションフリーでハイブリッドでエンドツーエンドのトレーニング可能なCNN-RNNディープニューラルネットワークを使用します。
論文 参考訳(メタデータ) (2021-04-09T15:36:33Z) - ContourNet: Taking a Further Step toward Accurate Arbitrary-shaped Scene
Text Detection [147.10751375922035]
本研究では,シーンテキストの偽陽性と大規模分散を効果的に処理するContourNetを提案する。
本手法は,両方向の応答値の高い予測を出力するだけで,これらの偽陽性を効果的に抑制する。
論文 参考訳(メタデータ) (2020-04-10T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。