論文の概要: CorefDRE: Document-level Relation Extraction with coreference resolution
- arxiv url: http://arxiv.org/abs/2202.10744v1
- Date: Tue, 22 Feb 2022 09:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 23:55:39.587422
- Title: CorefDRE: Document-level Relation Extraction with coreference resolution
- Title(参考訳): corefdre: coreference resolutionを用いた文書レベルの関係抽出
- Authors: Zhongxuan Xue, Rongzhen Li, Qizhu Dai, Zhong Jiang
- Abstract要約: 代名詞による多文特徴を表現するために,言及代名詞のコア参照情報を用いる。
代名詞と対応する代名詞の親和性を計算するために、代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代名詞代
公開データセットであるDocRED、DialogRE、MPDDの実験では、グラフ推論ネットワークに基づくCoref対応のDocレベルの関係抽出が最先端よりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Document-level relation extraction is to extract relation facts from a
document consisting of multiple sentences, in which pronoun crossed sentences
are a ubiquitous phenomenon against a single sentence. However, most of the
previous works focus more on mentions coreference resolution except for
pronouns, and rarely pay attention to mention-pronoun coreference and capturing
the relations. To represent multi-sentence features by pronouns, we imitate the
reading process of humans by leveraging coreference information when
dynamically constructing a heterogeneous graph to enhance semantic information.
Since the pronoun is notoriously ambiguous in the graph, a mention-pronoun
coreference resolution is introduced to calculate the affinity between pronouns
and corresponding mentions, and the noise suppression mechanism is proposed to
reduce the noise caused by pronouns. Experiments on the public dataset, DocRED,
DialogRE and MPDD, show that Coref-aware Doc-level Relation Extraction based on
Graph Inference Network outperforms the state-of-the-art.
- Abstract(参考訳): 文書レベルの関係抽出は、代名詞交叉文が単一文に対してユビキタスな現象である複数の文からなる文書から関係事実を抽出することである。
しかし、以前の作品のほとんどが代名詞以外の項参照の解決に重点を置いており、言及-代名詞の項参照と関係のキャプチャに注意を払うことは滅多にない。
類似グラフを動的に構築して意味情報を高める際に、人間同士の参照情報を活用し、人間の読解過程を模倣する。
グラフにおいて代名詞は曖昧なことで悪名高いため、代名詞と対応する代名詞との親和性を計算するために、代名詞による雑音を低減するための雑音抑制機構が提案されている。
公開データセットであるDocRED、DialogRE、MPDDの実験では、グラフ推論ネットワークに基づくCoref対応のDocレベルの関係抽出が最先端よりも優れていることが示されている。
関連論文リスト
- Conversational Semantic Parsing using Dynamic Context Graphs [68.72121830563906]
汎用知識グラフ(KG)を用いた会話意味解析の課題を,数百万のエンティティと数千のリレーショナルタイプで検討する。
ユーザ発話を実行可能な論理形式にインタラクティブにマッピングできるモデルに焦点を当てる。
論文 参考訳(メタデータ) (2023-05-04T16:04:41Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z) - Pruned Graph Neural Network for Short Story Ordering [0.7087237546722617]
コヒーレンスを最大化する順序に文を整理することは、文の順序付けとして知られている。
そこで本研究では,文章間のエッジを生成するために,短い物語の文中心グラフを構築する手法を提案する。
また,代名詞を代名詞の代名詞に置き換えることによって,文中心性グラフの文を効果的にエンコードすることが観察された。
論文 参考訳(メタデータ) (2022-03-13T22:25:17Z) - Keyphrase Extraction Using Neighborhood Knowledge Based on Word
Embeddings [17.198907789163123]
我々は、単語埋め込みを背景知識として活用して、単語間グラフに意味情報を加えることにより、グラフベースのランキングモデルを強化する。
提案手法は,確立されたベンチマークデータセットを用いて評価し,単語の埋め込み近傍情報によりモデル性能が向上することを示す。
論文 参考訳(メタデータ) (2021-11-13T21:48:18Z) - Multiplex Graph Neural Network for Extractive Text Summarization [34.185093491514394]
抽出テキスト要約は、ある文書から最も代表的な文章を要約として抽出することを目的としている。
文と単語の異なる関係を共同でモデル化する新しい多重グラフ畳み込みネットワーク(Multi-GCN)を提案する。
マルチGCNに基づいて,抽出テキスト要約のための多重グラフ要約(Multi-GraS)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-29T16:11:01Z) - Mention-centered Graph Neural Network for Document-level Relation
Extraction [2.724649366608364]
我々は, 相互関係関係を推定することで, 相互関係を構築する。
実験は、異なる言及間の接続が文書レベルの関係抽出に重要であることを示している。
論文 参考訳(メタデータ) (2021-03-15T08:19:44Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Text Information Aggregation with Centrality Attention [86.91922440508576]
本稿では, 固有中央集権自己注意という, 集権重み付けの新たな方法を提案する。
文中のすべての単語に対する完全連結グラフを構築し,各単語の注意点として固有中央性を計算する。
論文 参考訳(メタデータ) (2020-11-16T13:08:48Z) - Understanding Points of Correspondence between Sentences for Abstractive
Summarization [39.7404761923196]
本稿では,文書から引き出された文の融合について,対応点の概念を導入して検討する。
我々は、文書、ソースおよび融合文、および文間の対応点の人間のアノテーションを含むデータセットを作成する。
論文 参考訳(メタデータ) (2020-06-10T02:42:38Z) - Heterogeneous Graph Neural Networks for Extractive Document
Summarization [101.17980994606836]
クロス文関係は、抽出文書要約における重要なステップである。
We present a graph-based neural network for extractive summarization (HeterSumGraph)
抽出文書要約のためのグラフベースニューラルネットワークに異なる種類のノードを導入する。
論文 参考訳(メタデータ) (2020-04-26T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。