論文の概要: Global Structure Knowledge-Guided Relation Extraction Method for
Visually-Rich Document
- arxiv url: http://arxiv.org/abs/2305.13850v3
- Date: Fri, 27 Oct 2023 04:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 10:50:56.564422
- Title: Global Structure Knowledge-Guided Relation Extraction Method for
Visually-Rich Document
- Title(参考訳): ビジュアルリッチ文書のグローバル構造知識誘導関係抽出法
- Authors: Xiangnan Chen, Qian Xiao, Juncheng Li, Duo Dong, Jun Lin, Xiaozhong
Liu, Siliang Tang
- Abstract要約: 本稿では,GlObal Structure Knowledge-Guided Relation extract (GOSE) フレームワークを提案する。
GOSEは、文書のスキャン画像から抽出されたエンティティペアの予備関係予測を生成して開始する。
グローバル構造知識は、前回の反復予測から取得され、エンティティの表現に組み込まれる。
- 参考スコア(独自算出の注目度): 37.05334263712291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Relation Extraction (VRE) is a powerful means of discovering
relationships between entities within visually-rich documents. Existing methods
often focus on manipulating entity features to find pairwise relations, yet
neglect the more fundamental structural information that links disparate entity
pairs together. The absence of global structure information may make the model
struggle to learn long-range relations and easily predict conflicted results.
To alleviate such limitations, we propose a GlObal Structure knowledge-guided
relation Extraction (GOSE) framework. GOSE initiates by generating preliminary
relation predictions on entity pairs extracted from a scanned image of the
document. Subsequently, global structural knowledge is captured from the
preceding iterative predictions, which are then incorporated into the
representations of the entities. This "generate-capture-incorporate" cycle is
repeated multiple times, allowing entity representations and global structure
knowledge to be mutually reinforced. Extensive experiments validate that GOSE
not only outperforms existing methods in the standard fine-tuning setting but
also reveals superior cross-lingual learning capabilities; indeed, even yields
stronger data-efficient performance in the low-resource setting. The code for
GOSE will be available at https://github.com/chenxn2020/GOSE.
- Abstract(参考訳): 視覚関係抽出(VRE)は、視覚的にリッチなドキュメント内のエンティティ間の関係を発見する強力な手段である。
既存の方法は、ペア関係を見つけるためにエンティティ機能を操作することに集中するが、異なるエンティティペアを結合するより基本的な構造情報を無視する。
グローバル構造情報の欠如は、モデルが長距離関係を学習し、矛盾した結果を容易に予測するのに苦労するかもしれない。
このような制約を軽減するために,GlObal Structure Knowledge-Guided Relation extract (GOSE) フレームワークを提案する。
GOSEは、文書のスキャン画像から抽出されたエンティティペアの予備関係予測を生成して開始する。
その後、グローバルな構造的知識は、前回の反復予測から取得され、エンティティの表現に組み込まれる。
この「ジェネレート・キャプチャー・インコーポレート」サイクルは何度も繰り返され、エンティティ表現とグローバル構造知識が相互に強化される。
広範な実験により、GOSEは標準的な微調整環境で既存の手法よりも優れているだけでなく、言語間学習能力も優れていることが証明された。
GOSEのコードはhttps://github.com/chenxn2020/GOSEで入手できる。
関連論文リスト
- Knowledge-Aware Query Expansion with Large Language Models for Textual and Relational Retrieval [49.42043077545341]
知識グラフ(KG)から構造化文書関係を付加したLLMを拡張した知識対応クエリ拡張フレームワークを提案する。
文書テキストをリッチなKGノード表現として活用し、KAR(Knowledge-Aware Retrieval)のための文書ベースの関係フィルタリングを利用する。
論文 参考訳(メタデータ) (2024-10-17T17:03:23Z) - Unleashing the Potential of Text-attributed Graphs: Automatic Relation Decomposition via Large Language Models [31.443478448031886]
RoSE (Relation-oriented Semantic Edge-Decomposition) は、生のテキスト属性を分析してグラフ構造を分解する新しいフレームワークである。
我々のフレームワークは、さまざまなデータセットのノード分類性能を大幅に向上させ、ウィスコンシンデータセットでは最大16%の改善を実現した。
論文 参考訳(メタデータ) (2024-05-28T20:54:47Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - SpEL: Structured Prediction for Entity Linking [5.112679200269861]
我々は,個々の入力トークンをエンティティとして分類するエンティティリンクの構造化予測の利用を再検討し,トークン予測を集約する。
我々のシステムであるSpELは最先端のエンティティリンクシステムであり、いくつかの新しいアイデアを用いてエンティティリンクのタスクに構造化予測を適用する。
実験の結果,WikipediaへのエンティティリンクのためのAIDAベンチマークデータセットでは,最先端のAIDAよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-23T08:24:35Z) - Learning Relation-Specific Representations for Few-shot Knowledge Graph
Completion [24.880078645503417]
本稿では,三重項のグラフコンテキストを利用して関係と実体のセマンティック情報を同時に取得する関係特化文脈学習フレームワークを提案する。
2つの公開データセットの実験結果は、RSCLが最先端のFKGC法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-22T11:45:48Z) - Neural Production Systems [90.75211413357577]
視覚環境は、異なるオブジェクトまたはエンティティから構成される。
イメージをエンティティに分割するために、ディープラーニング研究者は構造的誘導バイアスを提案した。
私たちは認知科学からインスピレーションを得て、一連のルールテンプレートからなる古典的なアプローチを復活させます。
このアーキテクチャは柔軟でダイナミックな制御フローを実現し、エンティティ固有およびルールベースの情報を分解するのに役立つ。
論文 参考訳(メタデータ) (2021-03-02T18:53:20Z) - Document-Level Relation Extraction with Reconstruction [28.593318203728963]
文書レベルの関係抽出(DocRE)のための新しいエンコーダ分類器再構成モデルを提案する。
再構築器は、グラフ表現からの基底経路依存性を再構築し、提案されたDocREモデルがトレーニングにおけるエンティティペアと関係をエンコードすることにもっと注意を払っていることを確認する。
大規模docreデータセットにおける実験結果から,提案モデルにより,グラフベースラインにおける関係抽出精度が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-12-21T14:29:31Z) - Context-Enhanced Entity and Relation Embedding for Knowledge Graph
Completion [2.580765958706854]
マルチホップにおけるエンティティコンテキストと関係コンテキストの効率的な集約を行うモデルAggrEを提案する。
実験の結果、AggrEは既存のモデルと競合していることがわかった。
論文 参考訳(メタデータ) (2020-12-13T09:20:42Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。