論文の概要: Enriched Attention for Robust Relation Extraction
- arxiv url: http://arxiv.org/abs/2104.10899v1
- Date: Thu, 22 Apr 2021 07:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:59:00.113999
- Title: Enriched Attention for Robust Relation Extraction
- Title(参考訳): ロバスト関係抽出のための強化された注意
- Authors: Heike Adel, Jannik Str\"otgen
- Abstract要約: 関係抽出モデルは、複数の実体と関係を持つ長い文にうまくスケールしない。
注意することで、モデルは関係抽出に関連する入力文の一部に集中することができる。
私達のモデルは2つの一般的なベンチマークの同等のセットアップを使用して前の仕事より優秀です。
- 参考スコア(独自算出の注目度): 10.925904231385207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of relation extraction models has increased considerably with
the rise of neural networks. However, a key issue of neural relation extraction
is robustness: the models do not scale well to long sentences with multiple
entities and relations. In this work, we address this problem with an enriched
attention mechanism. Attention allows the model to focus on parts of the input
sentence that are relevant to relation extraction. We propose to enrich the
attention function with features modeling knowledge about the relation
arguments and the shortest dependency path between them. Thus, for different
relation arguments, the model can pay attention to different parts of the
sentence. Our model outperforms prior work using comparable setups on two
popular benchmarks, and our analysis confirms that it indeed scales to long
sentences with many entities.
- Abstract(参考訳): ニューラルネットワークの普及に伴い,関係抽出モデルの性能は大幅に向上した。
しかし、神経関係抽出の重要な問題は堅牢性であり、モデルは複数の実体と関係を持つ長い文にうまくスケールしない。
本研究では,この問題を集中型注意機構を用いて解決する。
注意することで、モデルは関係抽出に関連する入力文の一部に集中することができる。
本稿では,関係論とそれらの間の最も短い依存関係経路に関する特徴モデリング知識を用いて,注目機能を強化することを提案する。
したがって、異なる関係論において、モデルは文の異なる部分に注意を払うことができる。
我々のモデルは、2つの人気のあるベンチマークで同等のセットアップを使用して以前の作業よりも優れており、分析によって多くのエンティティを持つ長い文にスケールできることが確認されている。
関連論文リスト
- Entity-Aware Self-Attention and Contextualized GCN for Enhanced Relation Extraction in Long Sentences [5.453850739960517]
本稿では,入力文の構文構造とシーケンスの意味的文脈を効率的に組み込んだ,エンティティを意識した自己意図型GCN(ESC-GCN)を提案する。
本モデルでは,既存の依存性ベースモデルやシーケンスベースモデルと比較して,パフォーマンスの向上を実現している。
論文 参考訳(メタデータ) (2024-09-15T10:50:51Z) - Sparse Relational Reasoning with Object-Centric Representations [78.83747601814669]
対象中心表現の操作において,リレーショナルニューラルアーキテクチャによって学習されたソフトルールの構成可能性について検討する。
特に特徴量の増加は,いくつかのモデルの性能を向上し,より単純な関係をもたらすことが判明した。
論文 参考訳(メタデータ) (2022-07-15T14:57:33Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Temporal Relation Extraction with a Graph-Based Deep Biaffine Attention
Model [0.0]
本稿では, ディープ・バイファイン・アテンションに基づく新しい時間情報抽出モデルを提案する。
本研究では,時間的関係抽出における最先端性能の実現を実験的に実証した。
論文 参考訳(メタデータ) (2022-01-16T19:40:08Z) - A Trigger-Sense Memory Flow Framework for Joint Entity and Relation
Extraction [5.059120569845976]
結合エンティティと関係抽出のためのTriMF(Trigger-Sense Memory Flow Framework)を提案する。
エンティティ認識と関係抽出タスクで学習したカテゴリ表現を記憶するためのメモリモジュールを構築する。
また,エンティティ認識と関係抽出の双方向インタラクションを強化するために,多レベルメモリフロー注目機構を設計する。
論文 参考訳(メタデータ) (2021-01-25T16:24:04Z) - RH-Net: Improving Neural Relation Extraction via Reinforcement Learning
and Hierarchical Relational Searching [2.1828601975620257]
本稿では、強化学習と階層型関係探索モジュールを用いて関係抽出を改善するRH-Netという新しいフレームワークを提案する。
次に、データリッチクラスとデータポーアクラス間の相関インスタンスのセマンティクスを共有する階層的関係探索モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-27T12:50:27Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - High-order Semantic Role Labeling [86.29371274587146]
本稿では,ニューラルセマンティックロールラベリングモデルのための高階グラフ構造を提案する。
これにより、モデルは孤立述語-引数対だけでなく、述語-引数対間の相互作用も明示的に考慮することができる。
CoNLL-2009ベンチマークの7つの言語に対する実験結果から、高次構造学習技術は強力なSRLモデルに有益であることが示された。
論文 参考訳(メタデータ) (2020-10-09T15:33:54Z) - Improving Long-Tail Relation Extraction with Collaborating
Relation-Augmented Attention [63.26288066935098]
本稿では,ニューラルネットワーク,コラボレーティング・リレーショナル・アテンション(CoRA)を提案する。
一般的なベンチマークデータセットNYTの実験では、提案されたCoRAは、最先端のパフォーマンスを大きなマージンで改善する。
論文 参考訳(メタデータ) (2020-10-08T05:34:43Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。