論文の概要: MexPub: Deep Transfer Learning for Metadata Extraction from German
Publications
- arxiv url: http://arxiv.org/abs/2106.07359v1
- Date: Fri, 4 Jun 2021 09:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 16:09:08.036199
- Title: MexPub: Deep Transfer Learning for Metadata Extraction from German
Publications
- Title(参考訳): MexPub:ドイツの出版物からメタデータ抽出のためのDeep Transfer Learning
- Authors: Zeyd Boukhers and Nada Beili and Timo Hartmann and Prantik Goswami and
Muhammad Arslan Zafar
- Abstract要約: 本稿では,PDF文書を画像として見ることにより,異なるレイアウトやスタイルでメタデータを抽出する手法を提案する。
提案手法は, 各種PDF文書からメタデータを正確に抽出する能力を検証し, 平均90%の精度を達成した。
- 参考スコア(独自算出の注目度): 1.1549572298362785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Extracting metadata from scientific papers can be considered a solved problem
in NLP due to the high accuracy of state-of-the-art methods. However, this does
not apply to German scientific publications, which have a variety of styles and
layouts. In contrast to most of the English scientific publications that follow
standard and simple layouts, the order, content, position and size of metadata
in German publications vary greatly among publications. This variety makes
traditional NLP methods fail to accurately extract metadata from these
publications. In this paper, we present a method that extracts metadata from
PDF documents with different layouts and styles by viewing the document as an
image. We used Mask R-CNN that is trained on COCO dataset and finetuned with
PubLayNet dataset that consists of ~200K PDF snapshots with five basic classes
(e.g. text, figure, etc). We refine-tuned the model on our proposed synthetic
dataset consisting of ~30K article snapshots to extract nine patterns (i.e.
author, title, etc). Our synthetic dataset is generated using contents in both
languages German and English and a finite set of challenging templates obtained
from German publications. Our method achieved an average accuracy of around
$90\%$ which validates its capability to accurately extract metadata from a
variety of PDF documents with challenging templates.
- Abstract(参考訳): 科学論文からメタデータを抽出することは、最先端の手法の精度が高いため、NLPにおいて解決された問題と考えることができる。
しかし、これは様々なスタイルやレイアウトを持つドイツの科学出版物には当てはまらない。
標準的かつ単純なレイアウトに従うイギリスの科学出版物の大半とは対照的に、ドイツの出版物におけるメタデータの順序、内容、位置、サイズは出版物によって大きく異なる。
この多様性により、従来のNLPメソッドはこれらの出版物から正確なメタデータを抽出できない。
本稿では,文書を画像として見ることによって,異なるレイアウトやスタイルのPDF文書からメタデータを抽出する手法を提案する。
私たちは、COCOデータセットでトレーニングされたMask R-CNNを使用し、PubLayNetデータセットで微調整しました。
テキスト、図など)。
提案した合成データセットを用いて,約30K項目のスナップショットから9つのパターンを抽出した。
著者、タイトル等)。
我々の合成データセットは、ドイツ語と英語の両方の言語の内容と、ドイツの出版物から得られる挑戦的なテンプレートを使って生成される。
提案手法は, 各種PDF文書からのメタデータを, 難解なテンプレートで正確に抽出する能力を検証するため, 平均90\%の精度を達成した。
関連論文リスト
- PDF-WuKong: A Large Multimodal Model for Efficient Long PDF Reading with End-to-End Sparse Sampling [63.93112754821312]
文書理解は、大量のテキストや視覚情報を処理し、理解する上で難しい課題である。
大規模言語モデル(LLM)の最近の進歩は、このタスクの性能を大幅に改善した。
長いPDF文書に対する多モーダル質問回答(QA)を強化するために設計された多モーダル大言語モデル(MLLM)であるPDF-WuKongを紹介する。
論文 参考訳(メタデータ) (2024-10-08T12:17:42Z) - Unifying Multimodal Retrieval via Document Screenshot Embedding [92.03571344075607]
Document Screenshot Embedding (DSE)は、文書のスクリーンショットを統一的な入力フォーマットとして扱う新しい検索パラダイムである。
まず、Wiki-SSというウィキペディアのウェブページのスクリーンショットをコーパスとして作成し、Natural Questionsデータセットからの質問に答える。
このようなテキスト集約的な文書検索設定では、DSEは構文解析に依存する他のテキスト検索方法と比較して、競合効果を示す。
論文 参考訳(メタデータ) (2024-06-17T06:27:35Z) - Recovering document annotations for sentence-level bitext [18.862295675088056]
我々は、ドイツ語、フランス語、スペイン語、イタリア語、ポーランド語、ポルトガル語の3つのデータセットの文書レベルの情報を再構築する。
本稿では,従来のbitextフィルタに代わる文書レベルのフィルタリング手法を提案する。
最後に、これらの長い文脈でモデルをトレーニングし、文章レベルの翻訳を劣化させることなく文書レベルの翻訳を改善することを示す。
論文 参考訳(メタデータ) (2024-06-06T08:58:14Z) - Making Old Kurdish Publications Processable by Augmenting Available Optical Character Recognition Engines [1.174020933567308]
クルド人図書館には、クルディスタンに印刷装置が持ち込まれた初期の時代に印刷された多くの歴史出版物がある。
現在の光学文字認識(OCR)システムでは、多くの問題があるため、歴史的文書からテキストを抽出できない。
本研究では,GoogleによるオープンソースのOCRフレームワークであるTesseractバージョン5.0を採用し,様々な言語用テキストの抽出に利用した。
論文 参考訳(メタデータ) (2024-04-09T08:08:03Z) - PEaCE: A Chemistry-Oriented Dataset for Optical Character Recognition on Scientific Documents [4.191058827240492]
合成と実世界の両方の記録を含むPEaCE(Printed English and Chemical Equations)データセットを提示する。
本研究では,トランスモデルを用いたOCRモデルの有効性を評価する。
論文 参考訳(メタデータ) (2024-03-23T05:20:36Z) - Improving Multimodal Datasets with Image Captioning [65.74736570293622]
生成したキャプションが非記述テキストによるWebスクラッピングデータポイントの有用性を高める方法について検討する。
DataComp の大規模字幕 (1.28B 画像テキストペア) を用いた実験により,合成テキストの限界について考察した。
論文 参考訳(メタデータ) (2023-07-19T17:47:12Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Multimodal Approach for Metadata Extraction from German Scientific
Publications [0.0]
ドイツ語の科学論文からメタデータを抽出するための多モーダル深層学習手法を提案する。
本稿では,自然言語処理と画像ビジョン処理を組み合わせることで,複数の入力データについて考察する。
提案手法は,約8800の文書からなるデータセットを用いて学習し,F1スコアの0.923を得ることができた。
論文 参考訳(メタデータ) (2021-11-10T15:19:04Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - Automatic Metadata Extraction Incorporating Visual Features from Scanned
Electronic Theses and Dissertations [3.1354625918296612]
Electronic Theses と (ETD) には、多くのデジタルライブラリータスクに使用できるドメイン知識が含まれている。
従来のシーケンスタグ法は主にテキストベースの機能に依存している。
テキストベースと視覚的特徴を組み合わせた条件付きランダムフィールド(CRF)モデルを提案する。
論文 参考訳(メタデータ) (2021-07-01T14:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。