論文の概要: UniRE: A Unified Label Space for Entity Relation Extraction
- arxiv url: http://arxiv.org/abs/2107.04292v1
- Date: Fri, 9 Jul 2021 08:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:58:35.701731
- Title: UniRE: A Unified Label Space for Entity Relation Extraction
- Title(参考訳): UniRE: エンティティ関係抽出のための統一ラベル空間
- Authors: Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, and Junchi Yan
- Abstract要約: 合同エンティティ関係抽出モデルでは、2つのサブタスクに対して2つの分離ラベル空間を設定する。
この設定は、エンティティとリレーション間の情報相互作用を妨げる可能性があると我々は主張する。
本研究では,2つのサブタスクのラベル空間における異なる処理を除去することを提案する。
- 参考スコア(独自算出の注目度): 67.53850477281058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many joint entity relation extraction models setup two separated label spaces
for the two sub-tasks (i.e., entity detection and relation classification). We
argue that this setting may hinder the information interaction between entities
and relations. In this work, we propose to eliminate the different treatment on
the two sub-tasks' label spaces. The input of our model is a table containing
all word pairs from a sentence. Entities and relations are represented by
squares and rectangles in the table. We apply a unified classifier to predict
each cell's label, which unifies the learning of two sub-tasks. For testing, an
effective (yet fast) approximate decoder is proposed for finding squares and
rectangles from tables. Experiments on three benchmarks (ACE04, ACE05, SciERC)
show that, using only half the number of parameters, our model achieves
competitive accuracy with the best extractor, and is faster.
- Abstract(参考訳): 多くのジョイントエンティティ関係抽出モデルは、2つのサブタスク(エンティティ検出と関係分類)に対して2つの分離されたラベル空間を設定する。
この設定は、エンティティとリレーション間の情報相互作用を妨げる可能性がある。
本研究では,2つのサブタスクのラベル空間における異なる処理の除去を提案する。
我々のモデルの入力は、文から全ての単語対を含むテーブルである。
実体と関係は表の中の正方形と矩形で表される。
2つのサブタスクの学習を統一する,各セルラベルの予測に統一型分類器を適用した。
テストでは、テーブルから正方形と矩形を見つけるために有効な(より速い)近似デコーダを提案する。
3つのベンチマーク (ACE04, ACE05, SciERC) 実験の結果, パラメータの半数しか使用せず, 最適抽出器との競合精度が向上し, 高速であることがわかった。
関連論文リスト
- SEMv3: A Fast and Robust Approach to Table Separation Line Detection [48.75713662571455]
テーブル構造認識(TSR)は、テーブル固有の構造を入力画像から解析することを目的としている。
スプリット・アンド・マージ(Split-and-merge)パラダイムは、テーブル分離線検出が不可欠であるテーブル構造を解析するための重要なアプローチである。
本稿では, SEMv3 (Split, Embed, Merge) を提案する。
論文 参考訳(メタデータ) (2024-05-20T08:13:46Z) - From Charts to Atlas: Merging Latent Spaces into One [15.47502439734611]
意味的に関連するデータセットとタスクに基づいてトレーニングされたモデルは、潜在空間内でのサンプル間関係に匹敵する。
相対的空間アグリゲーション(Relative Latent Space Aggregation)という2段階のアプローチを導入し、まず相対表現を用いて空間を同等にレンダリングし、簡単な平均でそれらを集約する。
集約された空間と、すべてのタスクで訓練されたエンドツーエンドモデルから導出された空間を比較し、この2つの空間が類似していることを示す。
論文 参考訳(メタデータ) (2023-11-11T11:51:41Z) - From Alignment to Entailment: A Unified Textual Entailment Framework for
Entity Alignment [17.70562397382911]
既存のメソッドは通常、エンティティのトリプルを埋め込みとしてエンコードし、埋め込みの整列を学ぶ。
我々は両トリプルを統一されたテキストシーケンスに変換し、EAタスクを双方向のテキストエンタテインメントタスクとしてモデル化する。
提案手法は,エンティティ間の2種類の情報の統合相関パターンを捕捉し,元のエンティティ情報間のきめ細かい相互作用を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-05-19T08:06:50Z) - SEMv2: Table Separation Line Detection Based on Instance Segmentation [96.36188168694781]
SEMv2(SEM: Split, Embed, Merge)と呼ばれるテーブル構造認識器を提案する。
本稿では,テーブル分離ラインのインスタンスレベルの識別問題に対処し,条件付き畳み込みに基づくテーブル分離ライン検出戦略を提案する。
SEMv2を包括的に評価するために、iFLYTABと呼ばれるテーブル構造認識のためのより困難なデータセットも提示する。
論文 参考訳(メタデータ) (2023-03-08T05:15:01Z) - AWTE-BERT:Attending to Wordpiece Tokenization Explicitly on BERT for
Joint Intent Classification and SlotFilling [5.684659127683238]
BERT (Bidirectional Representations from Transformers) は2つのタスクを共同で最適化する。
本稿では,ワードピーストークン化後の複数のサブトークン特徴を明示的にモデル化したBERTに基づく新しいジョイントモデルを提案する。
実験により,本モデルが意図分類精度,スロットフィリングF1,文レベルの意味的フレーム精度を大幅に向上することを確認した。
論文 参考訳(メタデータ) (2022-11-27T13:49:19Z) - Text Summarization with Oracle Expectation [88.39032981994535]
抽出要約は、文書の中で最も重要な文を識別し、連結することによって要約を生成する。
ほとんどの要約データセットは、文書文が要約に値するかどうかを示す金のラベルを持っていない。
本稿では,ソフトな予測に基づく文ラベルを生成する,シンプルで効果的なラベル付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:10:08Z) - RelationPrompt: Leveraging Prompts to Generate Synthetic Data for
Zero-Shot Relation Triplet Extraction [65.4337085607711]
ゼロショット関係トリプルト抽出(ZeroRTE)のタスク設定について紹介する。
入力文が与えられた後、抽出された各三重項は、トレーニング段階で関係ラベルが見えないヘッドエンティティ、リレーションラベル、テールエンティティから構成される。
本稿では、言語モデルに構造化テキストを生成するよう促すことで、関係例を合成する。
論文 参考訳(メタデータ) (2022-03-17T05:55:14Z) - A Cascade Dual-Decoder Model for Joint Entity and Relation Extraction [18.66493402386152]
重なり合う三重項を抽出する効果的なカスケード二重復号器法を提案する。
我々のアプローチは単純であり、テキスト固有の関係デコーダと関係対応エンティティデコーダを含んでいる。
提案手法の一般化性を検証するために,実世界の露天採掘データセットと2つの公開データセットについて実験を行った。
論文 参考訳(メタデータ) (2021-06-27T07:42:05Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Semantic Labeling Using a Deep Contextualized Language Model [9.719972529205101]
本研究では,コラム値と文脈の両方を用いた文脈認識型セマンティックラベリング手法を提案する。
我々の新しい手法はセマンティックラベリングの新しい設定に基づいており、ヘッダーを欠いた入力テーブルのラベルを逐次予測する。
我々の知る限りでは、BERTをセマンティックラベリングタスクの解決に成功させたのは、私たちが初めてです。
論文 参考訳(メタデータ) (2020-10-30T03:04:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。