論文の概要: Proof of Concept: Automatic Type Recognition
- arxiv url: http://arxiv.org/abs/2007.07690v2
- Date: Tue, 20 Oct 2020 11:46:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:03:19.571731
- Title: Proof of Concept: Automatic Type Recognition
- Title(参考訳): 概念証明:自動型認識
- Authors: Vincent Christlein, Nikolaus Weichselbaumer, Saskia Limbach, Mathias
Seuret
- Abstract要約: そこで本研究では,本書のタイプ分類と型検索の性能について検討した。
タイプ分類では,フォント群分類に使用されていた深層畳み込みニューラルネットワーク(CNN)を利用する。
どちらのシナリオでも,難易度は高い精度で分類・検索できるが,難易度は難しい。
- 参考スコア(独自算出の注目度): 3.0978294735377156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The type used to print an early modern book can give scholars valuable
information about the time and place of its production as well as its producer.
Recognizing such type is currently done manually using both the character
shapes of `M' or `Qu' and the size of the total type to look it up in a large
reference work. This is a reliable method, but it is also slow and requires
specific skills. We investigate the performance of type classification and type
retrieval using a newly created dataset consisting of easy and difficult types
used in early printed books. For type classification, we rely on a deep
Convolutional Neural Network (CNN) originally used for font-group
classification while we use a common writer identification method for the
retrieval case. We show that in both scenarios, easy types can be
classified/retrieved with a high accuracy while difficult cases are indeed
difficult.
- Abstract(参考訳): 初期の近代の本を印刷するために使われるタイプは、研究者に生産時期や場所、生産者に関する情報を与えることができる。
この型を認識するには、現在、'M' または `Qu' の文字形状と、大きな参照作業で調べるために、全型のサイズの両方を使って手動で行う。
これは信頼できる方法ですが、遅いし、特定のスキルが必要です。
本研究は, 初期の印刷本において, 簡便で難解な型からなるデータセットを用いて, 型分類と型検索の性能について検討した。
タイプ分類では,フォントグループ分類に使用されていた深層畳み込みニューラルネットワーク(CNN)を,検索ケースに共通文字識別法を用いる。
どちらのシナリオでも、容易な型を高い精度で分類/検索することができるが、難しいケースは確かに難しい。
関連論文リスト
- Deep Learning-Driven Approach for Handwritten Chinese Character Classification [0.0]
手書き文字認識は、機械学習研究者にとって難しい問題である。
多数のユニークな文字クラスが存在するため、ロジカルスクリプトや中韓文字シーケンスのようなデータによっては、HCR問題に新たな複雑さをもたらす。
本稿では、モデルアーキテクチャ、データ前処理ステップ、設計手順のテストを導入し、詳細な文字画像分類のための高度にスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-30T15:29:32Z) - Understanding prompt engineering may not require rethinking
generalization [56.38207873589642]
言語モデルによって与えられるPAC-Bayesと組み合わさったプロンプトの離散的性質は、文献の標準によって非常に厳密な一般化境界をもたらすことを示す。
この研究は、プロンプトエンジニアリングの広範な実践を正当化する可能性がある。
論文 参考訳(メタデータ) (2023-10-06T00:52:48Z) - TypeT5: Seq2seq Type Inference using Static Analysis [51.153089609654174]
本稿では,型予測をコード入力タスクとして扱う新しい型推論手法を提案する。
本手法では静的解析を用いて,型シグネチャがモデルによって予測されるコード要素毎に動的コンテキストを構築する。
また,モデルの入力コンテキストに事前の型予測を組み込んだ反復復号方式を提案する。
論文 参考訳(メタデータ) (2023-03-16T23:48:00Z) - Knowledge-based Document Classification with Shannon Entropy [0.0]
そこで我々は,シャノン・エントロピーを用いた知識ベースモデルを提案し,情報の豊かさを計測し,一様で多様なキーワードマッチングを好む。
シャノンエントロピーは偽陽性率の一定レベルにおいてリコールを著しく改善することを示す。
論文 参考訳(メタデータ) (2022-06-06T05:39:10Z) - Eliciting Knowledge from Pretrained Language Models for Prototypical
Prompt Verbalizer [12.596033546002321]
本稿では,事前学習された言語モデルから知識を抽出することに集中し,プロンプト学習のためのプロトタイプなプロンプト動詞化手法を提案する。
ゼロショット設定では、知識は事前訓練された言語モデルから手動で設計され、初期プロトタイプの埋め込みを形成する。
数ショット設定では、モデルは有意義で解釈可能なプロトタイプの埋め込みを学ぶように調整される。
論文 参考訳(メタデータ) (2022-01-14T12:04:37Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Robust Document Representations using Latent Topics and Metadata [17.306088038339336]
本稿では,文書分類問題に対する事前学習型ニューラルネットワークモデルの微調整手法を提案する。
テキストとメタデータの両方をタスク形式でキャプチャする文書表現を生成します。
私たちのソリューションでは、メタデータを単にテキストで拡張するのではなく、明示的に組み込んでいます。
論文 参考訳(メタデータ) (2020-10-23T21:52:38Z) - Text Classification Using Label Names Only: A Language Model
Self-Training Approach [80.63885282358204]
現在のテキスト分類法は、訓練データとして多くの人ラベルの文書を必要とするのが一般的である。
本モデルでは,トピック分類や感情分類を含む4つのベンチマークデータセットにおいて,約90%の精度が得られた。
論文 参考訳(メタデータ) (2020-10-14T17:06:41Z) - Text Classification with Few Examples using Controlled Generalization [58.971750512415134]
現在の実践は、トレーニング中に見えない単語を、類似した単語とマッピングするために、事前訓練された単語埋め込みに依存している。
私たちの代替案は、未ラベルのパースコーパスから派生したスパース事前訓練された表現から始まります。
これらのベクトル上のフィードフォワードネットワークは、特に低データシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2020-05-18T06:04:58Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。