論文の概要: HIN: Hierarchical Inference Network for Document-Level Relation
Extraction
- arxiv url: http://arxiv.org/abs/2003.12754v1
- Date: Sat, 28 Mar 2020 09:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:48:03.445959
- Title: HIN: Hierarchical Inference Network for Document-Level Relation
Extraction
- Title(参考訳): HIN:文書レベル関係抽出のための階層型推論ネットワーク
- Authors: Hengzhu Tang, Yanan Cao, Zhenyu Zhang, Jiangxia Cao, Fang Fang, Shi
Wang and Pengfei Yin
- Abstract要約: 文書レベルのREは、複数の文の読み込み、推測、集約を必要とする。
文書レベルのREでは、異なる粒度で推論情報を取得して集約する方法が難しい。
- 参考スコア(独自算出の注目度): 13.474450053582572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Document-level RE requires reading, inferring and aggregating over multiple
sentences. From our point of view, it is necessary for document-level RE to
take advantage of multi-granularity inference information: entity level,
sentence level and document level. Thus, how to obtain and aggregate the
inference information with different granularity is challenging for
document-level RE, which has not been considered by previous work. In this
paper, we propose a Hierarchical Inference Network (HIN) to make full use of
the abundant information from entity level, sentence level and document level.
Translation constraint and bilinear transformation are applied to target entity
pair in multiple subspaces to get entity-level inference information. Next, we
model the inference between entity-level information and sentence
representation to achieve sentence-level inference information. Finally, a
hierarchical aggregation approach is adopted to obtain the document-level
inference information. In this way, our model can effectively aggregate
inference information from these three different granularities. Experimental
results show that our method achieves state-of-the-art performance on the
large-scale DocRED dataset. We also demonstrate that using BERT representations
can further substantially boost the performance.
- Abstract(参考訳): 文書レベルのREでは、複数の文を読み取り、推測、集約する必要がある。
我々の視点では、文書レベルREは、エンティティレベル、文レベル、文書レベルといった多粒性推論情報を活用する必要がある。
したがって,これまで検討されていない文書レベルのREでは,異なる粒度で推論情報を収集・集約する方法が困難である。
本稿では,エンティティレベル,文レベル,文書レベルから得られる豊富な情報を十分に活用するための階層的推論ネットワーク(hin)を提案する。
翻訳制約と双線形変換は、複数のサブ空間内の対象エンティティペアに適用され、エンティティレベルの推論情報を取得する。
次に,エンティティレベルの情報と文表現との推論をモデル化し,文レベルの推論情報を実現する。
最後に、文書レベルの推論情報を得るために階層的集約手法を採用する。
このようにして、我々のモデルはこれらの3つの異なる粒度の推論情報を効果的に集約することができる。
実験の結果,大規模docredデータセット上での最先端性能が得られた。
また,bert表現を用いることで性能がさらに向上することを示す。
関連論文リスト
- UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Exploiting Global Contextual Information for Document-level Named Entity
Recognition [46.99922251839363]
我々は、GCDoc(Global Context enhanced Document-level NER)と呼ばれるモデルを提案する。
単語レベルでは、文書グラフは単語間のより広範な依存関係をモデル化するために構築される。
文レベルでは、単一文を超えてより広い文脈を適切にモデル化するために、横断文モジュールを用いる。
我々のモデルは、CoNLL 2003データセットで92.22(BERTで93.40)、Ontonotes 5.0データセットで88.32(BERTで90.49)のスコアに達した。
論文 参考訳(メタデータ) (2021-06-02T01:52:07Z) - An End-to-End Document-Level Neural Discourse Parser Exploiting
Multi-Granularity Representations [24.986030179701405]
構文とセマンティクスにまたがる複数のレベルの粒度から派生した堅牢な表現を利用します。
このような表現をエンドツーエンドのエンコーダデコーダニューラルアーキテクチャに組み込んで、よりリソース豊富な対話処理を行います。
論文 参考訳(メタデータ) (2020-12-21T08:01:04Z) - Coarse-to-Fine Entity Representations for Document-level Relation
Extraction [28.39444850200523]
文書レベルの関係抽出(RE: Document-level Relation extract)は、文内および文間で表現される関係を抽出する必要がある。
最近の研究は、通常文書レベルの相互作用をキャプチャする文書レベルのグラフを構築するグラフベースの手法が有用なエンティティ表現を得ることができることを示している。
粗大な戦略を採用する textbfCoarse-to-textbfFine textbfEntity textbfRepresentation model (textbfCFER) を提案する。
論文 参考訳(メタデータ) (2020-12-04T10:18:59Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - Reasoning with Latent Structure Refinement for Document-Level Relation
Extraction [20.308845516900426]
本稿では,潜在文書レベルグラフを自動的に誘導することにより,文間の関係推論を促進する新しいモデルを提案する。
具体的には、大規模文書レベルデータセット(DocRED)上でF1スコア59.05を達成する。
論文 参考訳(メタデータ) (2020-05-13T13:36:09Z) - A Hierarchical Network for Abstractive Meeting Summarization with
Cross-Domain Pretraining [52.11221075687124]
本稿では,会議シナリオに適応する抽象的要約ネットワークを提案する。
提案手法は,長時間の会議記録に対応する階層構造と,話者間の差異を表現する役割ベクトルを設計する。
我々のモデルは、自動測定と人的評価の両方において、過去のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-04-04T21:00:41Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。