論文の概要: Relational Representation Learning in Visually-Rich Documents
- arxiv url: http://arxiv.org/abs/2205.02411v1
- Date: Thu, 5 May 2022 02:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 14:20:22.413751
- Title: Relational Representation Learning in Visually-Rich Documents
- Title(参考訳): ビジュアルリッチ文書における関係表現学習
- Authors: Xin Li, Yan Zheng, Yiqing Hu, Haoyu Cao, Yunfei Wu, Deqiang Jiang,
Yinsong Liu, Bo Ren
- Abstract要約: 文書表現フレームワークDocReLを提案する。
DocReLの最大の課題は、様々な関係にある。
本稿では,既存の関係が拡張肯定的な視点で一貫性を持つべきという事実を生かした,一貫性モデリング(Consistency Modeling, RCM)という新しい対照的なタスクを提案する。
RCMは、関係の正確な定義に関する知識がなくても、下流タスクの緊急要求とより互換性のある関係表現を提供する。
- 参考スコア(独自算出の注目度): 14.942600317107082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relational understanding is critical for a number of visually-rich documents
(VRDs) understanding tasks. Through multi-modal pre-training, recent studies
provide comprehensive contextual representations and exploit them as prior
knowledge for downstream tasks. In spite of their impressive results, we
observe that the widespread relational hints (e.g., relation of key/value
fields on receipts) built upon contextual knowledge are not excavated yet. To
mitigate this gap, we propose DocReL, a Document Relational Representation
Learning framework. The major challenge of DocReL roots in the variety of
relations. From the simplest pairwise relation to the complex global structure,
it is infeasible to conduct supervised training due to the definition of
relation varies and even conflicts in different tasks. To deal with the
unpredictable definition of relations, we propose a novel contrastive learning
task named Relational Consistency Modeling (RCM), which harnesses the fact that
existing relations should be consistent in differently augmented positive
views. RCM provides relational representations which are more compatible to the
urgent need of downstream tasks, even without any knowledge about the exact
definition of relation. DocReL achieves better performance on a wide variety of
VRD relational understanding tasks, including table structure recognition, key
information extraction and reading order detection.
- Abstract(参考訳): 関係理解は、多くの視覚的にリッチなドキュメント(VRD)理解タスクにおいて重要である。
マルチモーダル事前トレーニングを通じて、最近の研究は包括的な文脈表現を提供し、下流タスクの事前知識として活用している。
その印象的な結果にもかかわらず,文脈知識に基づいて構築された広範囲にわたる関係的ヒント(例えば,レシート上のキー/値フィールドの関係)がいまだに発掘されていないことを観察した。
このギャップを軽減するために,ドキュメント関係表現学習フレームワークのdocrelを提案する。
DocReLの最大の課題は、様々な関係にある。
複雑な大域構造に対する最も単純な対関係から、関係の定義によって教師あり訓練を行うことは不可能であり、異なるタスクにおける矛盾さえも異なる。
関係の予測不能な定義に対処するために,既存の関係が異なる拡張正の視点で一貫性を持つべきという事実を生かした,関係一貫性モデリング(Relational Consistency Modeling, RCM)という新しい対照的な学習課題を提案する。
RCMは、正確な関係の定義に関する知識がなくても、下流タスクの緊急要求とより互換性のある関係表現を提供する。
DocReLは、テーブル構造認識、キー情報抽出、読み出し順序検出など、様々なVRDリレーショナル理解タスクにおいて、より良いパフォーマンスを実現する。
関連論文リスト
- Zero-Shot Relational Learning for Multimodal Knowledge Graphs [31.215889061734295]
主な課題の1つは、関連するトレーニングデータなしで新たに発見された関係を推測することである。
既存の作業はマルチモーダル情報の活用をサポートしておらず、未調査のままである。
多様なマルチモーダル情報と知識グラフ構造を統合するために, マルチモーダル学習者, 構造コンソリエータ埋め込みジェネレータという3つのコンポーネントからなる新しいエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-09T11:14:45Z) - Multiple Relations Classification using Imbalanced Predictions
Adaptation [0.0]
関係分類タスクは、対象物と対象物のペアに適切な意味関係を割り当てる。
現在の関係分類モデルは、1つの文で複数の関係を識別する追加の手順を用いる。
本稿では,これらの課題に対処する複数の関係分類モデルを提案する。
論文 参考訳(メタデータ) (2023-09-24T18:36:22Z) - Document-level Relation Extraction with Relation Correlations [15.997345900917058]
文書レベルの関係抽出は,長期問題と複数ラベル問題という,見落とされた2つの課題に直面している。
関係の共起相関を解析し,DocREタスクに初めて導入する。
論文 参考訳(メタデータ) (2022-12-20T11:17:52Z) - ViRel: Unsupervised Visual Relations Discovery with Graph-level Analogy [65.5580334698777]
ViRelは、グラフレベルのアナロジーを用いた視覚関係の教師なし発見と学習のための方法である。
本研究では,関係分類において95%以上の精度を達成できることを示す。
さらに、より複雑な関係構造を持つ未確認タスクに一般化する。
論文 参考訳(メタデータ) (2022-07-04T16:56:45Z) - Saliency-Regularized Deep Multi-Task Learning [7.3810864598379755]
マルチタスク学習は、知識を共有するために複数の学習タスクを強制し、一般化能力を改善する。
現代のディープマルチタスク学習は、潜在機能とタスク共有を共同で学習することができるが、それらはタスク関係において不明瞭である。
本稿では,潜在的特徴と明示的な課題関係を共同で学習するマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-03T20:26:44Z) - Improving Long Tailed Document-Level Relation Extraction via Easy
Relation Augmentation and Contrastive Learning [66.83982926437547]
我々は,DocREが現実のシナリオにおいて,長期分布問題の緩和に不可欠であると主張する。
長期分布問題に動機付けられ,DocREを改善するための簡易関係拡張法(ERA)を提案する。
論文 参考訳(メタデータ) (2022-05-21T06:15:11Z) - ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute
Representation Learning [10.609715843964263]
目に見える関係と見えない関係のテキスト記述を組み込んでゼロショット関係抽出問題を定式化する。
本稿では,手作りラベリングや複数対属性分類を使わずに,目に見えない関係を直接予測する,新しいマルチタスク学習モデルであるゼロショットBERTを提案する。
2つのよく知られたデータセットで行われた実験では、ZS-BERTが少なくとも13.54%のF1スコアの改善によって既存の方法より優れていることが示されています。
論文 参考訳(メタデータ) (2021-04-10T06:53:41Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Improving Long-Tail Relation Extraction with Collaborating
Relation-Augmented Attention [63.26288066935098]
本稿では,ニューラルネットワーク,コラボレーティング・リレーショナル・アテンション(CoRA)を提案する。
一般的なベンチマークデータセットNYTの実験では、提案されたCoRAは、最先端のパフォーマンスを大きなマージンで改善する。
論文 参考訳(メタデータ) (2020-10-08T05:34:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。