論文の概要: DocTr: Document Transformer for Structured Information Extraction in
Documents
- arxiv url: http://arxiv.org/abs/2307.07929v1
- Date: Sun, 16 Jul 2023 02:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 17:00:31.631430
- Title: DocTr: Document Transformer for Structured Information Extraction in
Documents
- Title(参考訳): doctr: 文書における構造化情報抽出のための文書トランスフォーマー
- Authors: Haofu Liao, Aruni RoyChowdhury, Weijian Li, Ankan Bansal, Yuting
Zhang, Zhuowen Tu, Ravi Kumar Satzoda, R. Manmatha, Vijay Mahadevan
- Abstract要約: 本稿では、視覚的にリッチな文書から構造化情報を取り出すための新しい定式化について述べる。
既存のIOBタグやグラフベースの定式化の制限に対処することを目的としている。
我々は、エンティティをアンカーワードとバウンディングボックスとして表現し、エンティティリンクをアンカーワードの関連付けとして表現する。
- 参考スコア(独自算出の注目度): 36.1145541816468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new formulation for structured information extraction (SIE) from
visually rich documents. It aims to address the limitations of existing IOB
tagging or graph-based formulations, which are either overly reliant on the
correct ordering of input text or struggle with decoding a complex graph.
Instead, motivated by anchor-based object detectors in vision, we represent an
entity as an anchor word and a bounding box, and represent entity linking as
the association between anchor words. This is more robust to text ordering, and
maintains a compact graph for entity linking. The formulation motivates us to
introduce 1) a DOCument TRansformer (DocTr) that aims at detecting and
associating entity bounding boxes in visually rich documents, and 2) a simple
pre-training strategy that helps learn entity detection in the context of
language. Evaluations on three SIE benchmarks show the effectiveness of the
proposed formulation, and the overall approach outperforms existing solutions.
- Abstract(参考訳): 本稿では、視覚的にリッチな文書から構造化情報抽出(SIE)を新たに定義する。
それは、入力テキストの正しい順序に依存するか、複雑なグラフのデコードに苦労する、既存のIOBタグやグラフベースの定式化の制限に対処することを目的としています。
代わりに、視覚におけるアンカーベースのオブジェクト検出器に動機づけられ、エンティティをアンカーワードとバウンディングボックスとして表現し、エンティティリンクをアンカーワード間の関連付けとして表現する。
これはテキストの順序付けよりも堅牢であり、エンティティリンク用のコンパクトグラフを維持している。
定式化は私達に導入を促す
1)視覚的に豊かな文書におけるエンティティ境界ボックスの検出及び関連を図るDOCument TRansformer(DocTr)
2) 言語コンテキストにおけるエンティティ検出の学習を支援する,シンプルな事前学習戦略。
3つのSIEベンチマークの評価は、提案した定式化の有効性を示し、全体的なアプローチは既存のソリューションよりも優れている。
関連論文リスト
- Document-Level In-Context Few-Shot Relation Extraction via Pre-Trained
Language Models [33.657362861477615]
本稿では,事前学習型言語モデルを用いた文書レベルの文書内複数ショット関係抽出のための新しいフレームワークを提案する。
微調整に基づく既存の手法とは異なり、我々のフレームワークは柔軟であり、再トレーニングなしに新しい関係に対して簡単に更新できる。
ドキュメントレベルの関係抽出用データセットとして最大であるDocREDを用いて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-17T09:10:27Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [72.79006668848186]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Document-level Relation Extraction with Cross-sentence Reasoning Graph [14.106582119686635]
関係抽出(RE)は、最近、文レベルから文書レベルに移行した。
GRaph情報集約・クロスセンス推論ネットワーク(GRACR)を用いた新しい文書レベルのREモデルを提案する。
実験結果から,GRACRは文書レベルのREの2つの公開データセットにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-03-07T14:14:12Z) - Not Just Plain Text! Fuel Document-Level Relation Extraction with
Explicit Syntax Refinement and Subsentence Modeling [3.9436257406798925]
expLicit syntAx Refinement and Subsentence mOdeliNg based framework (LARSON)を提案する。
余分な構文情報を導入することで、LARSONは任意の粒度のサブ文をモデル化し、効果的なインストラクティブを表示できる。
3つのベンチマークデータセット(DocRED、CDR、GDA)の実験結果から、LARSONは既存の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-11-10T05:06:37Z) - Document-Level Relation Extraction with Sentences Importance Estimation
and Focusing [52.069206266557266]
文書レベルの関係抽出(DocRE)は、複数の文の文書から2つのエンティティ間の関係を決定することを目的としている。
我々はDocREのための文重要度スコアと文集中損失を設計するSIEF(Sentence Estimation and Focusing)フレームワークを提案する。
2つのドメインの実験結果から、SIEFは全体的なパフォーマンスを改善するだけでなく、DocREモデルをより堅牢にします。
論文 参考訳(メタデータ) (2022-04-27T03:20:07Z) - Unified Pretraining Framework for Document Understanding [52.224359498792836]
文書理解のための統合事前学習フレームワークであるUDocを紹介する。
UDocは、ほとんどのドキュメント理解タスクをサポートするように設計されており、Transformerを拡張してマルチモーダル埋め込みを入力とする。
UDocの重要な特徴は、3つの自己管理的損失を利用して汎用的な表現を学ぶことである。
論文 参考訳(メタデータ) (2022-04-22T21:47:04Z) - StrucTexT: Structured Text Understanding with Multi-Modal Transformers [29.540122964399046]
Visually Rich Documents (VRD)における構造化テキスト理解は、ドキュメントインテリジェンスの重要な部分である。
本稿では,SrucTexTという統合フレームワークを提案する。
セグメントレベルおよびトークンレベルで構造化されたテキスト理解の手法を評価し,その手法が最先端のテキスト理解よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T02:57:07Z) - Coarse-to-Fine Entity Representations for Document-level Relation
Extraction [28.39444850200523]
文書レベルの関係抽出(RE: Document-level Relation extract)は、文内および文間で表現される関係を抽出する必要がある。
最近の研究は、通常文書レベルの相互作用をキャプチャする文書レベルのグラフを構築するグラフベースの手法が有用なエンティティ表現を得ることができることを示している。
粗大な戦略を採用する textbfCoarse-to-textbfFine textbfEntity textbfRepresentation model (textbfCFER) を提案する。
論文 参考訳(メタデータ) (2020-12-04T10:18:59Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。