論文の概要: HySPA: Hybrid Span Generation for Scalable Text-to-Graph Extraction
- arxiv url: http://arxiv.org/abs/2106.15838v1
- Date: Wed, 30 Jun 2021 06:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 23:53:23.584607
- Title: HySPA: Hybrid Span Generation for Scalable Text-to-Graph Extraction
- Title(参考訳): HySPA: スケーラブルテキスト-グラフ抽出のためのハイブリッドスパン生成
- Authors: Liliang Ren, Chenkai Sun, Heng Ji, Julia Hockenmaier
- Abstract要約: Text-to-Graph extractは、自然言語テキストから参照と型からなる情報グラフを自動的に抽出することを目的としている。
テーブルフィリングやペアワイズスコアリングといった既存のアプローチは、様々な情報抽出タスクにおいて印象的なパフォーマンスを示している。
本稿では,情報グラフをノードとエッジの交互にマッピングするHybrid Span Generator (HySPA)を提案する。
- 参考スコア(独自算出の注目度): 28.83525227941032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Graph extraction aims to automatically extract information graphs
consisting of mentions and types from natural language texts. Existing
approaches, such as table filling and pairwise scoring, have shown impressive
performance on various information extraction tasks, but they are difficult to
scale to datasets with longer input texts because of their second-order
space/time complexities with respect to the input length. In this work, we
propose a Hybrid Span Generator (HySPA) that invertibly maps the information
graph to an alternating sequence of nodes and edge types, and directly
generates such sequences via a hybrid span decoder which can decode both the
spans and the types recurrently in linear time and space complexities.
Extensive experiments on the ACE05 dataset show that our approach also
significantly outperforms state-of-the-art on the joint entity and relation
extraction task.
- Abstract(参考訳): Text-to-Graph extractは、自然言語テキストから参照と型からなる情報グラフを自動的に抽出することを目的としている。
テーブルフィリングやペアワイズスコアリングといった既存のアプローチは、様々な情報抽出タスクにおいて顕著なパフォーマンスを示しているが、入力長に関する2階空間/時間複雑さのため、長い入力テキストを持つデータセットにスケールすることは困難である。
本研究では,情報グラフをノードとエッジの交互列に可逆的にマッピングするハイブリッドスパン生成器(hyspa)を提案し,スパンとタイプを線形時間と空間の複雑度で再帰的にデコードできるハイブリッドスパンデコーダを用いて,それらのシーケンスを直接生成する。
ACE05データセットの広範囲な実験により、我々のアプローチは共同エンティティと関係抽出タスクの最先端性にも優れていた。
関連論文リスト
- HyperQuery: Beyond Binary Link Prediction [0.7100520098029438]
ノードレベルのクラスタリングを用いた新しい特徴抽出手法を導入し,ノードレベルのラベルからのデータの統合によってシステム性能が向上することを示す。
我々の自己教師型アプローチは、いくつかのハイパーエッジ予測と知識ハイパーグラフ補完ベンチマークに基づいて、アートベースラインの状態を大幅に改善する。
論文 参考訳(メタデータ) (2025-01-13T22:46:24Z) - GT2Vec: Large Language Models as Multi-Modal Encoders for Text and Graph-Structured Data [42.18348019901044]
GT2Vecは、大規模言語モデルを利用して、テキストとグラフデータを共同でエンコードするフレームワークである。
従来の作業とは異なり、グラフやテキスト空間をより効果的に整合させるために、コントラスト学習を導入する。
論文 参考訳(メタデータ) (2024-10-15T03:40:20Z) - Text2Data: Low-Resource Data Generation with Textual Control [100.5970757736845]
Text2Dataは、ラベルのないデータを使って基盤となるデータ配布を理解する新しいアプローチである。
制御性を確保し、破滅的な忘れを効果的に防止する、制約最適化に基づく新たな学習目標を通じて微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - An Autoregressive Text-to-Graph Framework for Joint Entity and Relation
Extraction [4.194768796374315]
条件付きシーケンス生成問題としてフレーミングすることで、非構造化テキストから結合エンティティと関係抽出を行う新しい手法を提案する。
ノードがテキストスパンを表し、エッジが関係トリプレットを表す線形化グラフを生成する。
本手法では,スパンと関係型の動的語彙にポインティング機構を付加したトランスフォーマーエンコーダデコーダアーキテクチャを用いる。
論文 参考訳(メタデータ) (2024-01-02T18:32:14Z) - Benchmarking and Analyzing Generative Data for Visual Recognition [66.55174903469722]
この研究は生成的画像の影響を深く掘り下げ、主に外部データを利用するパラダイムを比較する。
我々は、2548のカテゴリを持つ22のデータセットからなるベンチマークである textbfGenBench を考案し、様々な視覚的認識タスクにまたがる生成データを評価した。
我々の徹底的なベンチマークと分析は、将来の調査における重要な課題を特定しながら、視覚認識における生成データの約束をスポットライトで示している。
論文 参考訳(メタデータ) (2023-07-25T17:59:59Z) - Unsupervised Extractive Summarization with Heterogeneous Graph
Embeddings for Chinese Document [5.9630342951482085]
中国語文書にヘテロジニアスグラフ埋め込み (HGE) を組み込んだ教師なし抽出サマリザイトン法を提案する。
実験結果から,本手法は3つの要約データセットにおいて,強いベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2022-11-09T06:07:31Z) - Paired Cross-Modal Data Augmentation for Fine-Grained Image-to-Text
Retrieval [142.047662926209]
本稿では,StyleGAN2モデルの隠れセマンティック情報を明らかにすることによって,ペアデータ拡張のための新しいフレームワークを提案する。
ランダムなトークン置換によって拡張テキストを生成し、拡張テキストを潜在空間アライメントモジュールに渡す。
我々は,2つのパブリックなクロスモーダル検索データセットに対する拡張データアプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-07-29T01:21:54Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。