論文の概要、ライセンス

# (参考訳) 多人数会話における共同一致解決と文字リンク [全文訳有]

Joint Coreference Resolution and Character Linking for Multiparty Conversation ( http://arxiv.org/abs/2101.11204v2 )

ライセンス: CC BY 4.0
Jiaxin Bai, Hongming Zhang, Yangqiu Song, and Kun Xu(参考訳) 会話で言及された人々を現実世界に結びつけるタスクである文字リンクは、会話を理解するために重要です。 コミュニケーションの効率性のために、人間はしばしば代名詞(例:「彼女」または通常のフレーズ(例:「あの女の子」)を話し言葉で名前付き実体(例:「レイチェル」)ではなく使用することを選びます。 この課題を解決するために、リンクを支援するために、異なる言及間のコアファレンス関係からよりリッチなコンテキストを組み込むことを提案します。 一方,共同参照クラスタ自体の発見は自明な作業ではなく,グローバルキャラクタ情報によるメリットがあると考えられるため,これら2つの課題を共同で解決することを提案する。 具体的には、C$^2$, Coreference resolution と Character linking の連立学習モデルを提案する。 実験結果は、C$^2$が両方のタスクで以前の作業を大幅に上回ることを実証した。 さらに,提案モデルにおける全モジュールの寄与と全ハイパーパラメータの効果を解析するために解析を行った。

Character linking, the task of linking mentioned people in conversations to the real world, is crucial for understanding the conversations. For the efficiency of communication, humans often choose to use pronouns (e.g., "she") or normal phrases (e.g., "that girl") rather than named entities (e.g., "Rachel") in the spoken language, which makes linking those mentions to real people a much more challenging than a regular entity linking task. To address this challenge, we propose to incorporate the richer context from the coreference relations among different mentions to help the linking. On the other hand, considering that finding coreference clusters itself is not a trivial task and could benefit from the global character information, we propose to jointly solve these two tasks. Specifically, we propose C$^2$, the joint learning model of Coreference resolution and Character linking. The experimental results demonstrate that C$^2$ can significantly outperform previous works on both tasks. Further analyses are conducted to analyze the contribution of all modules in the proposed model and the effect of all hyper-parameters.
公開日: Thu, 28 Jan 2021 08:25:29 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Joint Coreference Resolution and Character Linking 共同干渉分解能と文字リンク 0.63
for Multiparty Conversation マルチパーティ会話に。 0.54
Jiaxin Bai1, Hongming Zhang1, Yangqiu Song1, and Kun Xu2 Jiaxin Bai1, Hongming Zhang1, Yangqiu Song1, Kun Xu2 0.93
{jbai, hzhangal, yqsong}@cse.ust.hk, kxkunxu@tencent.com jbai, hzhangal, yqsong}@cse.ust.hk, kxkunxu@tencent.com 0.83
1CSE, HKUST 2 Tencent AI Lab 1CSE, HKUST 2 Tencent AI Lab 0.96
1 2 0 2 n a J 1 2 0 2 n a J 0.85
8 2 ] L C . 8 2 ] L C。 0.78
s c [ 2 v 4 0 2 1 1 sc [ 2 v 4 0 2 1 1 0.68
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
Abstract Character linking, the task of linking mentioned people in conversations to the real world, is crucial for understanding the conversations. 概要 会話で言及された人々を現実世界に結びつけるタスクである文字リンクは、会話を理解するために重要です。 0.60
For the efficiency of communication, humans often choose to use pronouns (e.g., “she”) or normal phrases (e.g., “that girl”) rather than named entities (e.g., “Rachel”) in the spoken language, which makes linking those mentions to real people a much more challenging than a regular entity linking task. コミュニケーションの効率性のために、人間はしばしば代名詞(例:「彼女」または通常のフレーズ(例:「あの女の子」)を話し言葉で名前付きエンティティ(例:「レイチェル」)ではなく使用することを選びます。
訳抜け防止モード: コミュニケーションの効率化のために、人間はしばしば代名詞を使う。 (例:「彼女」)または通常の句(例:「あの女の子」) 話し言葉で名付けられた実体(例えば「レイチェル」)よりもむしろ それらの言及を現実の人間にリンクすることは、通常のエンティティリンクタスクよりもずっと難しい。
0.74
To address this challenge, we propose to incorporate the richer context from the coreference relations among different mentions to help the linking. この課題を解決するために、リンクを支援するために、異なる言及間のコアファレンス関係からよりリッチなコンテキストを組み込むことを提案します。 0.56
On the other hand, considering that finding coreference clusters itself is not a trivial task and could benefit from the global character information, we propose to jointly solve these two tasks. 一方,共同参照クラスタ自体の発見は自明な作業ではなく,グローバルキャラクタ情報によるメリットがあると考えられるため,これら2つの課題を共同で解決することを提案する。 0.70
Specifically, we propose C2, the joint learning model of Coreference resolution and Character linking. 具体的には,コージェネレーションとキャラクタリンクの連立学習モデルであるC2を提案する。 0.74
The experimental results demonstrate that C2 can significantly outperform previous works on both tasks. 実験の結果、C2は両方のタスクにおける以前の作業よりも大幅に優れていた。 0.52
Further analyses are conducted to analyze the contribution of all modules in the proposed model and the effect of all hyper-parameters. さらに,提案モデルにおける全モジュールの寄与と全ハイパーパラメータの効果を解析するために解析を行った。 0.84
Introduction 1 Understanding conversations has long been one of the ultimate goals of the natural language processing community, and a critical step towards that is grounding all mentioned people to the real world. はじめに 会話を理解することは、自然言語処理コミュニティの究極の目標の1つであり、言及されているすべての人々を現実世界に基盤付けるための重要なステップです。 0.64
If we can achieve that, we can leverage our knowledge about these people (e.g., things that happened to them before) to better understand the conversation. それを達成できれば、これらの人々(例えば、以前に起こったこと)に関する知識を活用して、会話をよりよく理解することができます。 0.72
On the other hand, we can also aggregate the conversation information back to our understanding about these people, which can be used for understanding future conversations that involve the same people. 一方で、これらの人々に関する理解に会話情報を集約することも可能で、同じ人々を含む将来の会話を理解するために利用できます。 0.73
To simulate the real conversations and investigate the possibility for models to ground mentioned people, the character linking task was 実際の会話をシミュレートし、言及された人々を接地するモデルの可能性を調べるために、キャラクタリンクタスクは、 0.71
Figure 1: The composition of the mentions in conversations for character grounding. 図1: キャラクターの接地のための会話における言及の構成。 0.77
Over 88% of the mentions are not named entities, which brings exceptional challenges when linking those to character entities. 言及の88%以上が名前のついたエンティティではない。
訳抜け防止モード: 言及の88%以上は名前が付けられていない。 キャラクタエンティティにリンクする場合 例外的な問題が発生します
0.58
proposed (Chen and Choi, 2016). 提案(Chen and Choi, 2016)。 0.76
Specifically, it uses the transcripts of TV shows (i.e., Friends) as the conversations and asks the models to ground all person mentions to characters. 具体的には、テレビ番組のトランスクリプト(つまり友人)を会話として使用し、モデルにキャラクターへの言及を全て解き明かすように依頼する。 0.71
Even though the character linking task can be viewed as a special case of the entity linking task, it is more challenging than the ordinary entity linking task for various reasons. キャラクタリンクタスクはエンティティリンクタスクの特別なケースと見なすことができますが、さまざまな理由で通常のエンティティリンクタスクよりも困難です。 0.65
First, the ordinary entity linking task often aims at linking named entities to external knowledge bases such as Wikipedia, where rich information (e.g., definitions) are available. 第一に、通常のエンティティリンクタスクは、名前付きエンティティをウィキペディアのような外部の知識ベースにリンクすることを目的としたもので、リッチな情報(例えば定義)が利用できる。 0.62
However, for the character linking task, we do not have the support of such rich knowledge base and all we have are the names of these characters and simple properties (e.g., gender) about these characters. しかし、文字リンクタスクでは、このような豊富な知識ベースはサポートされておらず、これらの文字の名前と、これらの文字に関する単純な特性(例えば、性別)しか持たない。 0.76
Second, the mentions in the ordinary entity linking are mostly concepts and entities, but not pronouns. 第二に、通常の実体リンクにおける言及は主に概念と実体であるが、代名詞ではない。 0.63
However, as shown in Figure 1, 88% of the character mentions are pronouns (e.g., “he”) or personal nouns (e.g., “that guy”) while only 12% are named entities. しかし、図1に示すように、文字の88%が代名詞(例:「ヘ」)または個人名詞(例:「あの男」)であり、わずか12%が名付けられた存在である。 0.79
Considering that pronouns have relatively weak semantics by themselves, to effectively ground mentions to the correct characters, we need to fully utilize the context information of the whole conversation rather than just the local context they appear in. 代名詞自体が比較的弱い意味論を持ち、正しい文字に効果的に言及するためには、局所的な文脈だけでなく、会話全体の文脈情報を完全に活用する必要がある。 0.68
One potential solution is using the coreference relations among different mentions as the bridge to 潜在的な解決策の1つは、ブリッジとして異なる言及間のコアファレンス関係を使用することです。 0.54
72%16%12%PronounsPer sonal NounsNamed Entities 72%16%12%PronounsPer sonal NounsNamed Entities 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: Coreference clusters can help to connect the whole conversation to provide a richer context for each mention such that we can better link them to Paul. 図2: コアファレンスクラスタは、会話全体を接続して、言及ごとによりリッチなコンテキストを提供して、ポールにリンクさせるのに役立ちます。 0.71
Meanwhile, the character Pual can also provide global information to help resolve the coreference. 一方、キャラクターPualはコアファレンスを解決するためにグローバル情報を提供することもできます。 0.64
connect the richer context. よりリッチなコンテキストをつなぐ。 0.52
One example is shown in Figure 2. 図2に示す例があります。 0.83
It is difficult to directly link the highlighted mentions to the character Paul based on their local context because the local context of each mention can only provide a single piece of information about its referent, e.g., “person is a male” or “the person works with Monica.” Given the coreference cluster, the mentions refer to the same person, and the pieces of information are put together to jointly determining the referent. 各言及のローカルコンテキストは、その紹介者に関する単一の情報のみを提供することができるため、ハイライトされた言及をそのローカルコンテキストに基づいてポールに直接リンクすることは困難です。例えば、「人は男性です」または「モニカで作業する人」。コアファウンティングクラスタを考えると、言及は同じ人物を参照し、情報の断片を一緒に紹介者を決定するためにまとめます。 0.75
As a result, it is easier for a model to do character linking with resolved coreference. その結果、モデルが解決されたコリファレンスでキャラクタリンクを行うことが容易になる。 0.65
Similar observations are also made in (Chen et al., 2017). 同様の観測も行われている(Chen et al., 2017)。 0.84
At the same time, we also noticed that coreference resolution, especially those involving pronouns, is also not trivial. 同時に,共参照分解能,特に代名詞を含むものも自明ではないことに気付いた。 0.54
As shown by the recent literature on the coreference resolution task (Lee et al., 2018; Kantor and Globerson, 2019), the task is still challenging for current models and the key challenge is how to utilize the global information about entities. コアファレンス解決タスクに関する最近の文献(Lee et al., 2018; Kantor and Globerson, 2019)で示されているように、タスクは現在のモデルにとってまだ挑戦的であり、重要な課題は、エンティティに関するグローバルな情報をどのように活用するかです。 0.71
And that is exactly what the character linking model can provide. そして、それはまさにキャラクターリンクモデルが提供できるものです。 0.75
For example, in Figure 2, it is difficult for a coreference model to correctly resolve the last mention he in the utterance given by Ross based on its local context, because another major male character (Joey) joins the conversation, which can distract and mislead the coreference model. 例えば、図2では、他の主要な男性キャラクタ(ジョーイ)が会話に参加し、コア参照モデルを混乱させ、誤解させる可能性があるため、局所的な文脈に基づいてロスから与えられた最後の発言を正しく解決することは困難である。 0.75
However, if the model knows the mention he links to the character Paul and Paul works with Monica, it is easier to resolve he to some guy that Monica works with. しかし、モデルが彼がモニカで働いているキャラクターポールとポールにリンクしている言及を知っていれば、モニカが一緒に働く男に彼を解決するのは簡単です。
訳抜け防止モード: しかし、モデルが言及を知っている場合は、ポールとポールがモニカで作業するキャラクターにリンクします。 Monicaが協力している誰かに彼を解決するのは簡単です。
0.76
Motivated by these observations, we propose to jointly train the Coreference resolution and Character linking tasks and name the joint model as C2. これらの観測により,コージェネレーションとキャラクタリンクタスクを共同で学習し,ジョイントモデルをC2と命名することを提案する。 0.74
C2 adopts a transformer-based text encoder and includes a mention-level self-attention (MLSA) module that enables the model to do mention-level contextualization. C2はトランスフォーマーベースのテキストエンコーダを採用しており、参照レベルのコンテキスト化を可能にする参照レベルの自己アテンション(MLSA)モジュールを含んでいる。 0.59
Meanwhile, a joint loss function is designed and utilized so that both tasks 一方, 両作業の協調損失関数の設計と利用 0.59
can be jointly optimized. 共同で最適化できます 0.81
The experimental results demonstrate that C2 outperforms all previous work significantly on both tasks. 実験の結果、c2は両方のタスクにおいて以前のすべての作業を大きく上回ることがわかった。 0.49
Specifically, compared with the previous work (Zhou and Choi, 2018), C2 improves the performance by 15% and 26% on the coreference resolution and character linking tasks1 respectively comparing to the previous state-of-the-art model ACNN (Zhou and Choi, 2018) . 具体的には,これまでの研究(zhou,choi,2018)と比較して,c2はコリファレンス解像度で15%,キャラクタリンクタスク1で26%向上し,従来の最先端モデルであるacnn(zhou,choi,2018) と比較した。 0.66
Further hyper-parameter and ablation studies testify the effectiveness of different components of C2 and the effect of all hyper-parameters. さらなるハイパーパラメーターおよびアブレーション研究は、C2の異なる成分の有効性と全てのハイパーパラメーターの効果を証明している。 0.59
Our code is available at https: //github.com/HKUST-K nowComp/C2. コードはhttps: //github.com/HKUST-K nowComp/C2で入手できます。 0.44
2 Problem Formulations and Notations 2 問題定式化と表記 0.77
We first introduce the coreference resolution and character linking tasks as well as used notations. 最初に、コアコンファレンス分解能と文字リンクタスク、および使用済み表記法を紹介します。 0.54
Given a conversation, which contains multiple utterances and n character mentions c1, c2, ..., cn, and a pre-defined character set Z, which contains m characters z1, z2, ..., zm. 複数の発話と n 文字を含む会話が与えられると、c1, c2, ..., cn と m 文字 z1, z2, ..., zm を含む予め定義された文字集合 Z が言及される。 0.84
The coreference resolution task is grouping all mentions to clusters such that all mentions in the same cluster refer to the same character. coreference解決タスクは、同じクラスタ内のすべての言及が同じ文字を参照するように、すべての言及をクラスタにグループ化します。 0.69
The character linking task is linking each mention to its corresponding character. キャラクタリンクタスクは、各レファレンスと対応するキャラクタをリンクする。 0.69
3 Model In this section, we introduce the proposed C2 framework, which is illustrated in Figure 3. 3モデル このセクションでは、図3に示すように提案されたC2フレームワークを紹介します。 0.77
With the conversation and all mentions as input, we first encode them with a shared mention representation encoder module, which includes a pre-trained transformer text encoder and a mention-level selfattention (MLSA) module. 会話と全ての言及を入力として、まず、事前訓練されたトランスフォーマーテキストエンコーダと参照レベルの自己保持(MLSA)モジュールを含む共有参照表現エンコーダモジュールでエンコードする。 0.73
After that, we make predictions for both tasks via two separate modules. その後、2つのモジュールによって両方のタスクを予測します。 0.66
In the end, a joint loss function is devised so that the model can be effectively trained on both tasks simultaneously. 最後に、モデルが両方のタスクを同時に効果的に訓練できるように、ジョイントロス関数を考案する。 0.65
Details are as follows. 3.1 Mention Representation We use pre-trained language models (Devlin et al., 2018; Joshi et al., 2019a) to obtain the contextualized representations for mentions. 詳細は以下の通り。 3.1 Mention Representation 事前訓練された言語モデル(Devlin et al., 2018; Joshi et al., 2019a)を使用して、言及のためのコンテキスト化された表現を取得します。 0.74
As speaker information is critical for the conversation understanding, we also include that information by appending speaker embeddings to each mention. 話者情報は会話理解に不可欠であるため,各言及に話者埋め込みを付加することで,その情報を含める。 0.80
As 1The performance on the coreference resolution is evaluated based on the average F1 score of B3, CEAFφ4, and BLANC. として 1B3,CEAFφ4,BLANCの平均F1スコアに基づいてコアファレンス分解能の性能を評価する。 0.62
The performance on the character linking task is evaluated by the average F1 score of the micro and macro F1. キャラクターリンクタスクのパフォーマンスは、マイクロおよびマクロF1の平均F1スコアによって評価される。 0.76
Monica : There's nothing to tell! モニカ:何も言うことはない! 0.68
He 's just some guy I work with!Joey : C'mon, you're going out with the guy ! 彼はちょうど私が一緒に働く男です!ジョーイ:C'mon、あなたは男と一緒に出かけています! 0.70
There's gottabe something wrong with him !Ross: All right Joey, be nice. Ross: よろしいジョーイ、優しくしてね。 0.36
So does he have a hump? 彼はハンプを持っていますか。 0.50
A hump and a hairpiece?Paul the Wine Guy ハンプとヘアピース?ポール・ザ・ワイン・ガイ 0.69
英語(論文から抽出)日本語訳スコア
where k indicates the number of mentions in a document, and the g(i) means the mention representation from the i-th layer of MLSA. ここで k は文書内の言及の数を示し、g(i) は MLSA の i 番目の層からの言及表現を意味します。 0.74
3.2 Coreference Resolution Following the previous work (Joshi et al., 2019a), we model the coreference resolution task as an antecedent finding problem. 3.2 Coreference Resolution 前回の作業(Joshi et al., 2019a)に続いて、Coreference Resolution タスクを未知の発見問題としてモデル化しました。 0.69
For each mention, we aim at finding one of the previous mentions that refer to the same person. それぞれの言及について、私たちは同じ人物を指す以前の言及の1つを見つけることを目指しています。 0.63
If no such previous mention exists, it should be linked to the dummy mention ε. このような言及が存在しない場合は、ダミー項 ε と関連づけるべきである。 0.73
Thus the goal of a coreference model is to learn a distribution, P (yi) over each antecedent for each mention i: したがって、コアファレンスモデルの目標は、各言及 i に対する各前置詞に対する分布 P (yi) を学ぶことである。 0.74
P (yi) = es(i,yi) P (yi) = es(i,yi) 0.85
Σy(cid:48)∈Y(i)es(i,y(cid:48)) y(cid:48)∈Y(i)es(i,y(cid:48)) 0.80
, (3) where s(i, j) is the score for the antecedent assignment of mention i to j. , (3) ここで s(i, j) は j への参照 i の先行割り当てのスコアである。 0.82
The score s(i, j) contains two parts: (1) the plausibility score of the mentions sa(i, j); (2) the mention score measuring the plausibility of being a proper mention sm(i). スコアs(i, j)は、(1)言及SA(i, j)の確率スコア、(2)適切な言及sm(i)である可能性を測定する言及スコアの2つの部分を含む。 0.61
Formally, the s(i, j) can be expressed by 形式的には、s(i, j) は表現できる。 0.77
s(i, j) = sm(i) + sm(j) + sa(i, j), sm(i) = F F N Nm(g(n) sa(i, j) = F F N Na([g(n) s(i, j) = sm(i) + sm(j) + sa(i, j) = sm(i) = F F N Nm(g(n) sa(i, j) = F F N Na([g(n)) 0.84
), , g(n) ]), ) , g(n) ]), 0.57
i i j (4) 私は 私は j (4) 0.69
(5) (6) where g(n) stands for the last layer mention representation resulted from the MLSA and F F N N indicates the feed-forward neural network. (5) (6) ここで、g(n) は MLSA と F F N から生じる最後の層の言及表現を表し、F N はフィードフォワードニューラルネットワークを示します。 0.82
3.3 Character Linking The character linking is formulated as a multi-class classification problem, following previous work (Zhou and Choi, 2018). 3.3 文字リンク 文字リンクは、前作(Zhou and Choi, 2018)に続くマルチクラス分類問題として定式化されている。 0.71
Given the mention representations g(n), the linking can be done with a simple feed-forward network, denoted as F F N N (·). 参照表現 g(n) が与えられたとき、リンクはF F N N (·) と表される単純なフィードフォワードネットワークで行うことができる。 0.81
Specifically, the probability of character entity zi is linked with a given mention i can be calculated by: 具体的には、キャラクタエンティティziの確率は、iが計算できる所定の言及とリンクされる。 0.63
Q(zi) = Sof tmax(F F N Nl(g(n) Q(zi) = Sof tmax(F F N Nl(g(n)) 0.89
i ))zi, (7) 私は )、zi。 (7) 0.66
where the notation (. where (複数形 wheres) 0.59
)z represents the z-th composition of a given vector. )z は与えられたベクトルの z 番目の組成を表す。 0.75
Joint Learning 3.4 To jointly optimize both coreference resolution and entity linking, we design a joint loss of both tasks. 共同学習 3.4 コリファレンスレゾリューションとエンティティリンクの両方を共同で最適化するために、両方のタスクを共同で損失する設計を行う。
訳抜け防止モード: 共同学習 3.4 コア参照解決とエンティティリンクの両方を共同で最適化する。 両タスクの 共同損失を設計する
0.72
For coreference resolution, given the gold clusters, we minimize the negative log-likelihood of コアファレンス分解能では、ゴールドクラスターを考えると、負のログの類似性を最小限に抑えます。 0.45
Figure 3: The coreference module and the linking module share the same mention representation g(n) as inputs. 図3: coreferenceモジュールとlinkingモジュールは入力と同じ参照表現g(n)を共有します。 0.72
The mention representation g(i) are iteratively refined through the mention-level self-attention layers. 言及表現 g(i) は言及レベルの自己保持層を通じて反復的に洗練される。 0.52
The initial mention representations g(0) are the sum of text span representations from a pre-trained text encoder and corresponding speaker embeddings. 最初の言及表現 g(0) は、事前に訓練されたテキストエンコーダと対応する話者埋め込みからのテキストスパン表現の合計である。 0.70
a result, the initial representation of mention i is: 結果として、最初の言及の表現は、 0.57
g(0) i = tstarti + tendi + espeakeri, g(0) i = tstarti + tendi + espeakeri, 0.85
(1) where tstarti and tendi are the contextualized representation of the beginning and the end tokens of mention i, and the espeakeri is the speaker embedding for the current speaker. (1) ここで tstarti と tendi は言及 i の始まりと終わりのトークンの文脈化された表現であり、espeakeri は現在の話者のための埋め込み話者です。 0.83
Here, we omit the embeddings of inner tokens because their semantics has been effectively encoded via the language model. ここでは、セマンティクスが言語モデルを介して効果的にエンコードされているため、内部トークンの埋め込みを省略します。 0.61
The speaker embeddings are randomly initialized before training. 話者埋め込みはトレーニング前にランダムに初期化される。 0.64
Sometimes the local context of a mention is not enough to make reasonable predictions, and it is observed that the co-occurred mentions can provide document-level context information. 時々、言及の局所的な文脈は合理的な予測を行うには不十分であり、共起した言及が文書レベルの文脈情報を提供できることが観察される。 0.61
To refine the mention representations given the presence of other mentions in the document, we introduce the Mention-Level Self-Attention (MLSA) layer, which has n layers of transformer encoder structure (Vaswani et al., 2017) and is denoted as T . 文書の他の言及の存在を考慮して言及表現を洗練するために、我々は、変圧器エンコーダ構造(Vaswani et al.、2017)のn層を有するメンションレベルセルフアテンション(MLSA)層を導入し、Tと表記される。 0.72
Formally, this iterative mention refinement process can be described by 形式的には、この反復的な言及の明確化プロセスは、 0.50
g(i+1) 1 , ..., g(i+1) g(i+1) 1 , ..., g(i+1) 0.92
k = T (g(i) k = T(g(i)) 0.88
1 , ..., g(i) k ), 1 , ..., g(i) k ) 0.66
(2) [CLS]Tok 1Tok m…[SEP][CLS]…[SEP]…Utterance TokensOther Utterances ………………………𝒈((cid:2868))𝒈((cid:3041))…………MLSA𝑠(cid:3028), 𝑠(cid:3040)𝑠𝑦(cid:3036)𝑧(cid:3036)Coreferenc eLinking (2) CLS]Tok 1Tok m...[SEP][CLS]...[SEP]...Utterance TokensOther Utterances.......... .................g(( cid:2868))g((cid:304 1))...............ML SAs(cid:3028), s(cid:3040)sy(cid:30 36)z(cid:3036)Corefe renceLinking 0.72
英語(論文から抽出)日本語訳スコア
DATASET TRN DEV TST TOTAL Dataset TRN DEV TST TOTAL 0.65
EPISODES SCENES EPISODES SCENES 0.85
UTTERANCES SPEAKERS 利用状況 スピーカー 0.39
MENTIONS ENTITIES mentions 実体 0.43
76 8 13 97 76 8 13 97 0.85
987 122 192 1,301 987 122 192 1,301 0.84
18,789 2,142 3,597 24,528 18,789 2,142 3,597 24,528 0.45
265 48 91 331 265 48 91 331 0.85
36,385 3,932 7,050 47,367 36,385 3,932 7,050 47,367 0.45
628 102 165 781 628 102 165 781 0.85
Table 1: The detailed information about the datasets. 表1:データセットに関する詳細な情報。 0.76
For each season, the episode 1 to 19 are used for training, the episode 20 to 21 for development, and the remaining for testing. 各シーズンのトレーニングには第1話から第19話、開発には第20話から第21話、テストには残りが使用される。 0.72
the possibility that each mention is linked to a gold antecedent. それぞれの言及が 金の先入観と結びついている可能性。 0.64
Then the coreference loss Lc becomes その後、コアファレンスロスLcとなる。 0.57
Lc = − N(cid:88) Lc = − N(cid:88) 0.94
log (cid:88) ログ (cid:88) 0.75
i=1 y∈Y(i)∩GOLD(i) i=1 y∈Y(i)\GOLD(i) 0.68
P (y), (8) P (y)。 (8) 0.80
Ll = − N(cid:88) Ll = − N(cid:88) 0.94
where the GOLD(i) denotes the gold coreference cluster that mention i belongs to. ここで GOLD(i) は、i が属するゴールドコアファレンスクラスタを表します。 0.67
Similarly, for character linking, we minimize the negative loglikelihood of the joint probability for each mention being linked to the correct referent character: 同様に、キャラクタリンクの場合、正しい参照キャラクタにリンクされている各発言に対するジョイント確率の負の対数化を最小化する。 0.69
log Q(zi). log Q(zi)。 0.80
(9) i=1 Finally, the joint loss can be the arithmetic aver- (9) i=1 最後に、関節の損失は算術平均となる。 0.68
age of the coreference loss and linking loss: コアリファレンス損失とリンク損失の年齢。 0.58
L = 1 2 (Ll + Lc). L = 1 2 (Ll + Lc)。 0.83
(10) 4 Experiments In this section, we introduce the experimental details to demonstrate the effectiveness of C2. (10) 4 実験 この節では, C2 の有効性を示す実験の詳細を紹介する。 0.84
4.1 Data Description We use the latest released character identification V2.02 as the experimental dataset, and we follow the standard training, developing, and testing separation provided by the dataset. 4.1 データ記述 最新リリースの文字識別v2.02を実験データセットとして使用し、データセットが提供する標準トレーニング、開発、テスト分離に従います。 0.84
In the dataset, all mentions are annotated with their referent global entities. データセットでは、すべての言及は、参照グローバルエンティティにアノテートされる。 0.67
For example, in Figure 4, the mention I is assigned to ROSS, and the mentions mom and dad are assigned to JUDY and JACK respectively in the first utterance given by Ross. 例えば、図4では、言及IはROSに割り当てられ、言及されたママとパパはそれぞれ、Rossによって与えられた最初の発話でJUDYとJACKに割り当てられます。 0.78
The gold coreference clusters are derived by grouping the mentions assigned to the same character entity. 金コリファレンスクラスタは、同じ文字エンティティに割り当てられた言及をグループ化して導出される。 0.71
Statistically, the dataset includes four seasons of the TV show Friends, which contain 97 episodes, 1,301 scenes, and 24,528 utterances. 統計的に、このデータセットには、97のエピソード、1,301のシーン、24,528の発話を含むテレビ番組の友人の四季が含まれています。 0.60
In total, there are 47,367 mentions, which are assigned to 781 unique characters. 合計47,367の表記があり、781の固有文字に割り当てられている。 0.81
The detailed statistics are shown in Table 1. 詳細な統計は表1に示します。 0.83
2https://github.com/ emorynlp/character-i dentification 2https://github.com/ emorynlp/character-i dentification 0.31
Figure 4: The example annotations for character identification. 図4: 文字識別のためのアノテーションの例。 0.85
The arrows in the figure are pointing from the character mentions to their referent character entities. 図の矢印は、文字が参照対象の文字実体に言及することを指しています。 0.67
4.2 Baseline Methods The effectiveness of the joint learning model is evaluated on both the coreference resolution and character linking tasks. 4.2 ベースライン法 コアコンファレンス分解能とキャラクタリンクタスクの両方で共同学習モデルの有効性を評価する。 0.78
To fairly compare with existing models, only the singular mentions are used following the singular-only setting (S-only) in the previous work (Zhou and Choi, 2018). 既存のモデルとかなり比較するために、前作(Zhou and Choi, 2018)の単数のみの設定(S-only)に従えば特異な言及のみが用いられる。 0.81
For the coreference resolution task, we com- coreference解決タスクについては、com- 0.53
pare with the following methods. • ACNN: A CNN-based model (Zhou and Choi, 2018) coreference resolution model that can also produce the mention and mention-cluster embeddings at the same time. 以下の方法による。 • ACNN: CNNベースのモデル(Zhou and Choi, 2018)のコアコンファレンス解像度モデル。
訳抜け防止モード: 以下の方法による。 •ACNN : CNNベースのモデル(周・潮) 2018年) コア参照解決モデル クラスタの埋め込みを同時に生成することも可能だ。
0.63
• C2F: The end-to-end coarse-to-fine coreference model (Joshi et al., 2019b) with BERT (Devlin et al., 2018) or SpanBERT (Joshi et al., 2019a) as the encoder. • C2F:BERT(Devlin et al., 2018)またはSpanBERT(Joshi et al., 2019a)をエンコーダとして、エンドツーエンドの粗いコアファレンスモデル(Joshi et al., 2019b)。 0.86
• CorefQA: An approach that reformulates the coreference resolution problem as a question answering problem (Wu et al., 2020) and being able to be benefited from fine-tuned question-answer text encoders. • corefqa: コリファレンス解決問題を質問応答問題(wu et al., 2020)として再構成し、微調整された質問応答テキストエンコーダの恩恵を受けるアプローチ。 0.75
Ross I told mom and dad last night, they seemed to take it pretty well.MonicaOh really, so that hysterical phone call I got from a woman at sobbing 3:00 A.M., “ I 'll never have grandchildren, I 'll never have grandchildren." ロスは昨夜母と父に、彼らはかなりうまくやっているように見えた。モニカは本当に、私が午前3時に女性からもらったヒステリックな電話で、「私は孫がいない、私は孫はいない」と言った。 0.62
was what? A wrong number?RossSorry.Joe yAlright Ross ,look. 何だって? RossSorry.JoeyAlrigh t Ross、見て。 0.65
You 're feeling a lot of pain right now. あなたは今、多くの痛みを感じています。 0.77
You 're angry. あなたは怒っている。 0.76
You 're hurting. Can I tell you what the answer is?JOEY TRIBBIANI JUDY GELLER ROSS GELLER MONICA GELLER JACK GELLER 痛いよ。 JOEY TRIBBIANI JUDY GELLER ROSS GELLER MONICA GELLER JACK GELLERとは? 0.46
英語(論文から抽出)日本語訳スコア
MODEL ACNN COREFQA (SPANBERT-LARGE) モデル ACNN COREFQA (SPANBERT-LARGE) 0.79
C2F (BERT-BASE) C2F (BERT-LARGE) C2F (SPANBERT-BASE) C2F (SPANBERT-LARGE) C2F (BERT-LARGE) C2F (SPANBERT-BASE) C2F (SPANBERT-LARGE) 0.78
C2 (BERT-BASE) C2 (BERT-LARGE) C2 (SPANBERT-BASE) C2 (SPANBERT-LARGE) C2 (BERT-LARGE) C2 (SPANBERT-BASE) C2 (SPANBERT-LARGE) 0.89
PREC. 84.30 73.72 PreC 84.30 73.72 0.45
69.62 71.72 72.49 81.93 69.62 71.72 72.49 81.93 0.45
78.10 78.49 81.18 85.83 78.10 78.49 81.18 85.83 0.45
B3 REC. 71.90 75.55 B3 REC所属。 71.90 75.55 0.58
76.11 80.25 77.88 84.38 76.11 80.25 77.88 84.38 0.45
81.56 81.90 83.59 85.27 81.56 81.90 83.59 85.27 0.45
F1 PREC. CEAFφ4 F1 PreC CEAFφ4 0.59
REC. F1 PREC. REC。 F1 PreC 0.66
BLANC REC. BLANC REC。 0.83
77.60 74.62 77.60 74.62 0.50
72.72 75.75 75.08 82.57 72.72 75.75 75.08 82.57 0.45
79.79 80.16 82.36 85.55 79.79 80.16 82.36 85.55 0.45
54.50 65.82 54.50 65.82 0.50
66.44 69.97 66.00 78.04 66.44 69.97 66.00 78.04 0.45
72.48 73.81 73.64 77.13 72.48 73.81 73.64 77.13 0.45
71.80 72.38 71.80 72.38 0.50
60.92 62.61 64.23 71.99 60.92 62.61 64.23 71.99 0.45
69.87 71.15 73.09 77.84 69.87 71.15 73.09 77.84 0.45
62.00 68.94 62.00 68.94 0.50
63.56 66.08 65.10 74.89 63.56 66.08 65.10 74.89 0.45
71.15 72.46 73.36 77.48 71.15 72.46 73.36 77.48 0.45
84.30 86.82 84.30 86.82 0.50
79.38 81.65 81.60 88.15 79.38 81.65 81.60 88.15 0.45
86.14 86.20 88.06 92.31 86.14 86.20 88.06 92.31 0.45
80.40 84.69 80.40 84.69 0.50
86.05 88.23 87.43 91.09 86.05 88.23 87.43 91.09 0.45
89.49 89.93 91.04 92.03 89.49 89.93 91.04 92.03 0.45
F1 82.10 85.75 F1 82.10 85.75 0.64
82.38 84.63 84.27 89.56 82.38 84.63 84.27 89.56 0.45
87.74 87.97 89.49 92.17 87.74 87.97 89.49 92.17 0.45
AVE.F1 73.96 (0.97) 76.44 (0.20) AVE.F1 73.96 (0.97) 76.44 (0.20) 0.55
72.88 (0.23) 75.49 (0.18) 74.81 (0.19) 82.34 (0.17) 72.88 (0.23) 75.49 (0.18) 74.81 (0.19) 82.34 (0.17) 0.61
80.14 (0.21) 80.17 (0.23) 81.74 (0.19) 85.06 (0.16) 80.14 (0.21) 80.17 (0.23) 81.74 (0.19) 85.06 (0.16) 0.61
Table 2: Experimental results on the coreference resolution task. 表2:coreference resolutionタスクの実験結果。 0.62
The results are presented in a 2-digit decimal following previous work. 結果は、前回の作業に続いて2桁の数字で示されます。 0.64
Standard deviations of the average F1 scores are shown in brackets. 平均的なF1スコアの標準偏差は括弧に示される。 0.76
For the character linking task, we also include ACNN as a baseline method. 文字リンクタスクには、ベースラインメソッドとしてACNNも含んでいます。 0.76
Considering existing general entity linking models (Kolitsas et al., 2018; van Hulst et al., 2020; Raiman and Raiman, 2018; Onando Mulang et al., 2020) cannot be applied to the character linking problem because they are not designed to handle pronouns, we propose another text-span classification model with transformer encoder as another strong baseline for the character linking task. 既存の一般エンティティリンクモデル(Kolitsas et al., 2018; van Hulst et al., 2020; Raiman and Raiman, 2018; Onando Mulang et al., 2020)は代名詞を扱うように設計されないため、文字リンク問題に適用できないため、トランスフォーマーエンコーダを用いた別のテキストスパン分類モデルを提案する。 0.72
• ACNN: A model that uses the mention and mention-cluster embeddings as input to do character linking (Zhou and Choi, 2018). • ACNN: 文字リンクを行うための入力として言及と言及クラスタ埋め込みを使用するモデル(Zhou and Choi, 2018)。 0.85
• BERT/SpanBERT: A text-span classification model consists of a transformer text encoder followed by a feed-forward network. • BERT/SpanBERT: テキストスパン分類モデルは、トランスレータテキストエンコーダとフィードフォワードネットワークで構成されます。 0.75
4.3 Evaluation Metrics We follow the previous work (Zhou and Choi, 2018) for the evaluation metrics. 4.3 評価指標 前作(Zhou and Choi, 2018)を評価指標として追従します。 0.71
Specifically, for coreference resolution, three evaluation metrics, B3, CEAFφ4, and BLANC, are used. 具体的には、コア参照の解決には、B3、CEAFφ4、BLANCの3つの評価基準を用いる。 0.54
The metrics are all proposed by the CoNNL’12 shared task (Pradhan et al., 2012) to evaluate the output coreference cluster against the gold clusters. メトリクスはすべてCoNNL’12共有タスク(Pradhan et al., 2012)によって提案され、ゴールドクラスタに対する出力コアファレンスクラスタを評価します。 0.70
We follow Zhou and Choi (2018) to use BLANC (Recasens and Hovy, 2011) to replace MUC (Vilain et al., 1995) because BLANC takes singletons into consideration but MUC does not. We follow Zhou and Choi (2018) to use BLANC (Recasens and Hovy, 2011) to replace MUC (Vilain et al., 1995) because BLANC takes consideration to singletons but MUC does not。 0.83
As for the character linking task, we use the Micro and Macro F1 scores to evaluate the multi-class classification performance. キャラクタリンクタスクについては、マイクロおよびマクロf1スコアを用いて、マルチクラス分類性能を評価する。 0.75
Implementation Details 4.4 In our experiments, we consider four different pretrained language encoders: BERT-Base, BERTLarge, SpanBERT-Base, and SpanBERT-Large, 実施内容 4.4 本実験では,BERT-Base,BERTLarge ,SpanBERT-Base,SpanB ERT-Largeの4種類のプリトレーニング言語エンコーダを検討した。 0.52
and we use n = 2 layers of the mention-level self-attention (MLSA). そして、参照レベル自己注意(MLSA)の n = 2 層を使用します。 0.73
The feed-forward networks are implemented by two fully connected layers with ReLU activations. フィードフォワードネットワークは、reluアクティベーションを持つ2つの完全接続層によって実装されている。 0.54
Following the previous work, (Zhou and Choi, 2018), the scene-level setting is used, where, each scene is regarded as a document for coreference resolution and linking. 前の作品(Zhou and Choi, 2018)に続いて、シーンレベルの設定が使用され、各シーンはコアリファレンスの解決とリンクのためのドキュメントとみなされます。 0.74
During the training, each mini-batch consists of segments obtained from a single document. トレーニング中、各ミニバッチは単一のドキュメントから得られたセグメントから構成される。 0.67
The joint learning model is optimized with the Adam optimizer (Kingma and Ba, 2015) with an initial learning rate of 3e-5, and a warming-up rate of 10%. 共同学習モデルは、adam optimizer (kingma and ba, 2015) によって最適化され、初期学習率は3e-5、温暖化速度は10%である。 0.79
The model is set to be trained for 100 epochs with an early stop. モデルは100エポックで訓練され、早期停止が予定されている。 0.75
All the experiments are repeated three times, and the average results are reported. すべての実験は3回繰り返され、平均結果が報告されます。 0.79
5 Results and Analysis In this section, we discuss the experimental results and present a detailed analysis. 5 結果と分析 本稿では,実験結果について検討し,詳細な解析を行う。 0.81
5.1 Coreference Resolution Results The performances of coreference resolution models are shown in Table 2. 5.1 coreference resolution results coreference resolution modelのパフォーマンスを表2に示す。 0.83
C2 with SpanBERT-large achieves the best performance on all evaluation metrics. SpanBERT-largeのC2は、すべての評価指標で最高のパフォーマンスを達成する。 0.58
Comparing to the baseline ACNN model, which uses hand-crafted features, C2 uses a transformer to better encode the contextual information. 手作りの機能を使用するベースラインACNNモデルと比較して、C2はコンテクスト情報をよりよくエンコードするためにトランスフォーマーを使用する。
訳抜け防止モード: 手作り機能を用いたベースラインacnnモデルとの比較 c2は、トランスフォーマーを使用してコンテキスト情報をよりよくエンコードする。
0.74
Besides that, even though ACNN formulates the coreference resolution and character linking tasks in a pipe-line and uses the coreference resolution result to help character linking, the character linking result cannot be used to help to resolve coreference clusters. さらに、ACNNは、パイプライン内のコア参照解決および文字リンクタスクを定式化し、文字リンクを支援するためにコア参照解決結果を使用するが、文字リンクの結果は、コア参照クラスタの解決に役立てることはできない。 0.62
As a comparison, we treat both tasks jointly such that they can help each other. 比較として、私たちは両方のタスクを互いに助け合うように一緒に扱います。 0.71
Currently, CorefQA is the best-performing general coreference resolution model on the OntoNotes dataset (Pradhan et al., 2012). 現在、CorefQAはOntoNotesデータセット(Pradhan et al., 2012)で最もパフォーマンスの良い一般的なコアファレンスレゾリューションモデルです。 0.74
However, its performance is limited on the conversation dataset due to しかし、その性能は会話データセットに限られている。 0.75
英語(論文から抽出)日本語訳スコア
MODEL ACNN BERT-BASE BERT-LARGE SPANBERT-BASE SPANBERT-LARGE モデル ACNN bert-base bert-large spanbert-base spanbert-large 0.57
C2 (BERT-BASE) C2 (BERT-LARGE) C2(SPANBERT-BASE) C2 (SPANBERT-LARGE) C2 (BERT-LARGE) C2 (SPANBERT-BASE) C2 (SPANBERT-LARGE) 0.88
RO 78.3 87.4 88.2 87.6 90.9 RO 78.3 87.4 88.2 87.6 90.9 0.63
86.5 85.9 89.8 91.2 86.5 85.9 89.8 91.2 0.45
RA 86.5 89.9 89.9 91.8 92.8 RA 86.5 89.9 89.9 91.8 92.8 0.63
87.8 90.0 91.3 94.1 87.8 90.0 91.3 94.1 0.45
CH 78.8 86.6 87.9 86.7 88.3 CH 78.8 86.6 87.9 86.7 88.3 0.63
85.6 87.3 90.5 91.1 85.6 87.3 90.5 91.1 0.45
MO 81.7 88.2 88.8 88.2 90.3 MO 81.7 88.2 88.8 88.2 90.3 0.63
86.8 86.9 90.9 92.5 86.8 86.9 90.9 92.5 0.45
JO 78.3 87.1 87.7 86.8 90.2 条 78.3 87.1 87.7 86.8 90.2 0.49
88.1 87.2 87.8 90.4 88.1 87.2 87.8 90.4 0.45
PH 88.8 91.1 93.1 92.6 94.3 PH 88.8 91.1 93.1 92.6 94.3 0.63
92.4 93.0 93.2 94.4 92.4 93.0 93.2 94.4 0.45
EM 69.2 94.3 93.5 94.6 94.6 EM 69.2 94.3 93.5 94.6 94.6 0.63
93.0 96.1 93.4 89.2 93.0 96.1 93.4 89.2 0.45
RI 83.9 62.4 68.0 73.3 71.7 RI83.9 62.4 68.0 73.3 71.7 0.54
66.0 66.0 71.3 77.1 66.0 66.0 71.3 77.1 0.45
MICRO 73.7 (0.6) MICRO 73.7 (0.6) 0.75
84.0 (0.1) 84.8 (0.2) 84.2 (0.1) 85.5 (0.1) 84.0 (0.1) 84.8 (0.2) 84.2 (0.1) 85.5 (0.1) 0.61
84.0 (0.1) 84.9 (0.1) 85.7 (0.1) 87.0 (0.1) 84.0 (0.1) 84.9 (0.1) 85.7 (0.1) 87.0 (0.1) 0.61
MACRO 59.6 (2.3) MACRO 59.6 (2.3) 0.75
77.3 (0.2) 79.1 (0.2) 77.3 (0.2) 79.8 (0.2) 77.3 (0.2) 79.1 (0.2) 77.3 (0.2) 79.8 (0.2) 0.61
78.6 (0.2) 79.5 (0.2) 81.0 (0.1) 81.1 (0.1) 78.6 (0.2) 79.5 (0.2) 81.0 (0.1) 81.1 (0.1) 0.61
Table 3: Experimental results per character on the character linking. 表3: キャラクタリンク上の文字毎の実験結果。 0.76
The results are presented in a 1-digit decimal following previous work. 結果は、前回の作業に続いて1桁の数字で示されます。 0.65
Standard deviations of the Micro and Macro F1 scores are shown in brackets. MicroとMacro F1の標準偏差はブラケットに示されている。 0.77
The names in the table are written in two-letter acronyms. 表の名称は2文字の頭字語で書かれています。 0.56
Ro: Ross, Ra: Rachel, Ch: Chandler, Mo: Monica, Jo: Joey, Ph: Phoebe, Em: Emily, Ri: Richard Ro: Ross, Ra: Rachel, Ch: Chandler, Mo: Monica, Jo: Joey, Ph: Phoebe, Em: Emily, Ri: Richard 0.85
two reasons. First, different from the experimental setting of OntoNotes, the mentions in our experiment setting are gold mentions. 2つの理由 まず、OntoNotesの実験的な設定とは異なり、実験環境における言及は金の言及である。 0.72
Consequently, the flexible span predicting strategy of CorefQA loses its advantages because of the absence of the mention proposal stage. したがって、corefqaのフレキシブルスパン予測戦略は、言及される提案段階がないため、その利点を失うことになる。 0.62
Second, the CorefQA leverages the fine-tuning on other question answering (QA) datasets and it is possible that the used QA dataset (i.e., SQuAD-2.0 (Rajpurkar et al., 2018)) is more similar to OntoNotes rather than the used multiparty conversation dataset, which is typically much more informal. 第二に、CorefQAは、他の質問応答(QA)データセットの微調整を活用し、使用されるQAデータセット(すなわち、SQuAD-2.0(Rajpurkar et al., 2018)は、使用されるマルチパーティ会話データセットよりもOntoNotesに似ています。 0.77
As a result, the effect of such fine-tuning process only works on OntoNotes. その結果、このような微調整プロセスの効果はOntoNotesにのみ作用する。 0.82
The coarse-to-fine (C2F) model (Joshi et al., 2019b) with a transformer encoder was the previous state-of-the-art model on OntoNotes. The coarse-to-fine (C2F) model (Joshi et al., 2019b) with a transformer encoder is the previous-of-the-art model on OntoNotes。 0.74
Referring to Table 2, given the same text encoder, the proposed C2 model can constantly outperform the C2F model. 同じテキストエンコーダで表2を参照すると、提案されたC2モデルは常にC2Fモデルを上回る性能を発揮します。 0.68
These results further demonstrate that with the help of the proposed joint learning framework, the out-of-context character information can help achieve better mention representations so that the coreference models can resolve them more easily. これらの結果はさらに,提案する共同学習フレームワークの助けを借りて,文脈外文字情報がより適切な参照表現の実現に役立ち,コリファレンスモデルがより容易に解決できることを実証する。 0.82
5.2 Character Linking Results As shown in Table 3, the proposed joint learning model also achieves the best performance on the character linking task and there are mainly two reasons for that. 5.2 文字リンク結果 表3に示すように,提案した共同学習モデルは,文字リンクタスクにおいて最高のパフォーマンスを達成し,その主な理由は2つある。 0.83
First, the contextualized mention representations obtained from pre-trained language encoders can better encode the context information than those representations used in ACNN. まず、事前訓練された言語エンコーダから得られた文脈化参照表現は、ACNNで使用される表現よりも文脈情報をよりよく符号化することができる。 0.57
Second, with the help of coreference clusters, richer context about the whole conversation is encoded for each mention. 第二に、コアファレンスクラスタの助けを借りて、会話全体に関するより豊かなコンテキストが言及ごとにエンコードされる。 0.65
For example, when using the same pretrained language model as the encoder, C2 can always outperform the baseline classification model. 例えば、エンコーダと同じプリトレーニング言語モデルを使用する場合、C2はベースライン分類モデルよりも常に優れています。 0.76
These empirical results confirm that, though the これらの実証的な結果はそれを証明します。 0.47
Figure 5: The x-axis is the number of MLSA layers used in the C2. 図5:x軸は、C2で使用されるMLSAレイヤーの数です。 0.81
The y-axes are the F1 scores on each metric for their corresponding tasks. y軸は、対応するタスクの各メトリックのF1スコアです。 0.72
The curves have general trends of going up, which indicates that the model performs better when there are more layers. 曲線は上昇する一般的な傾向を持ち、レイヤーが増えるとモデルの性能が向上することを示している。 0.77
BERT and SpanBERT can produce very good vector representation for the mentions based on the local context, the coreference clusters can still provide useful document-level contextual information for linking them to a global character entity. BERTとSpanBERTは、ローカルコンテキストに基づいて言及のための非常に良いベクタ表現を生成することができます。コアファレンスクラスタは、それらをグローバル文字エンティティにリンクするための有用なドキュメントレベルのコンテキスト情報を提供することができます。 0.65
5.3 The Number of MLSA Layers Another contribution of the proposed C2 model is the proposed mention-level self-attention (MLSA) module, which helps iteratively refine the mention representations according to the other mentions co-occurred within the same document. 5.3 The Number of MLSA Layers 提案されたC2モデルのもう1つの貢献は、提案された言及レベルの自己保持(MLSA)モジュールである。 0.59
In this section, to show its effect and the influence of iteration layers, we tried different layers and show their per- この節では、その効果とイテレーション層の影響を示すために、異なる層を試し、その個数を示す。 0.78
01234581.082.0B30123 4572.074.0CEAF012345 88.090.0BLANC0123457 8.079.0Macro01234584 .085.0Micro 01234581.082.0B30123 4572.074.0CEAF012345 88.090.0BLANC0123457 8.079.0Macro01234584 .085.0Micro 0.08
英語(論文から抽出)日本語訳スコア
Figure 6: Case study. 図6: ケーススタディ。 0.70
All mentions that are linked to the same character and in the same coreference cluster are highlighted with the same color. 同じ文字にリンクされ、同じコアファレンスクラスタ内のすべての言及は、同じ色で強調表示されます。 0.78
The misclassified mention is marked with the red cross. 誤記には赤十字が刻まれている。 0.56
COREFERENCE F1 COREFERENCE F1 0.88
LINKING F1 MODEL C2 リンクF1 モデル C2 0.74
- MLSA - LINKING - COREF. -MLSA - LINKING - COREF。 0.60
B3 85.54 83.57 83.50 B3 85.54 83.57 83.50 0.63
- CEAFφ4 BLANC MICRO - CEAFφ4 BLANCマイクロ 0.79
MACRO 77.48 75.32 76.10 MACRO 77.48 75.32 76.10 0.66
- 92,17 90.51 90.08 - 92,17 90.51 90.08 0.66
- 87.05 86.26 - 87.05 86.26 0.68
- 86.94 81.09 80.32 - 86.94 81.09 80.32 0.65
- 79.58 Table 4: Three ablation studies are conducted concerning the MLSA layers, the coreference resolution module, and the character linking module. - 79.58 表4:MLSA層,コア参照分解モジュール,文字リンクモジュールに関する3つのアブレーション研究を行う。
訳抜け防止モード: - 79.58 表4:MLSA層に関する3つのアブレーション研究を行います。 コアリファレンス解像度モジュール、および文字リンクモジュール。
0.72
formances on the test set in Figure 5. 図5のテストセットのフォーマンス。 0.67
We conducted the experiments with the SpanBERT-Base encoder and all other hyper-parameters are the same. SpanBERT-Baseエンコーダで実験を行い、他のハイパーパラメータはすべて同じです。 0.75
The x-axis is the number of layers, and the y-axes are F1 scores of B3, CEAF, and BLANC for coreference resolution, the Macro and Micro F1 scores for character linking. x軸はレイヤーの数であり、y軸はコアファレンス解像度のためのB3、CEAF、BLANCのF1スコア、キャラクターリンクのためのマクロおよびマイクロF1スコアです。 0.71
From the results, we can see that with the increase of layer number from zero to five, the F1 scores on both tasks gradually increase. その結果, 層数が0から5に増加するにつれて, 両タスクのF1スコアが徐々に増加することがわかった。 0.75
This trend demonstrates that the model can perform better on both tasks when there are more layers. この傾向は、レイヤーが増えると、モデルが両方のタスクでより良いパフォーマンスを発揮できることを示している。
訳抜け防止モード: この傾向は レイヤーが増えると、モデルは両方のタスクでより良く機能します。
0.70
Meanwhile, the marginal performance improvement of the MLSA layer is decreasing. 一方、MLSA層の限界性能改善は減少している。 0.64
This indicates that adding too many layers of MLSA may not further help improve the performance because enough context has been included. これは、MLSAのレイヤーが多すぎると、十分なコンテキストが組み込まれているため、パフォーマンスがさらに向上しないことを示している。 0.50
Considering the balance between performance and computational efficiency, we chose the iteration layers to be two in our current model based on similar observations made on the development set. パフォーマンスと計算効率のバランスを考慮して、開発セットで行った同様の観察に基づいて、イテレーション層を現在のモデルで2つにしました。 0.75
5.4 Ablation Study In this section, we present the ablation study to clearly show the effect of different modules in the proposed framework C2 in Table 4. 5.4 アブレーション研究本節では,提案するフレームワークc2における異なるモジュールの効果を表4で明確に示すため,アブレーション研究を行う。 0.83
First, we try to remove the mention-level self-attention (MLSA) from our joint learning model and a clear performance drop is observed on both tasks. まず、共同学習モデルから言及レベルの自己保持(MLSA)を取り除き、両方のタスクで明確なパフォーマンス低下が観察されます。
訳抜け防止モード: まず試してみましょう 共同学習モデルからの言及-レベル自己注意(MLSA)の除去 両方のタスクで 明らかなパフォーマンス低下が観測されます
0.80
Specifically, the performance on coreference resolution is reduced by 1.21 on the average F1, and meanwhile, the macro-F1 and micro-F1 scores on character linking decreased by 0.77 and 0.79 respectively. 具体的には、コアファレンス解像度の性能は平均F1で1.21に低下し、マクロF1とマイクロF1はそれぞれ0.77と0.79に低下した。 0.69
The reduction reveals that the MLSA indeed helps achieve better mention representations with the help from co-occurred mentions. この減少は、MLSAが共同で発生した言及の助けを借りてより良い言及表現を達成するのに役立つことを明らかにしている。 0.42
Second, we try to remove the coreference resolution and character linking modules. 第2に,コリファレンス解決モジュールとキャラクタリンクモジュールの削除を試みる。 0.65
When the character linking module is removed, it is observed that the performance on coreference resolution decreased by 1.94 on the averaged F1 score. キャラクタリンクモジュールが除去されると、平均F1スコアでコアファレンス分解能のパフォーマンスが1.94低下することが観察される。 0.72
When the coreference module is removed, the performance of C2 on character linking dropped by 0.83 on the average of Micro and Macro F1 scores. コア参照モジュールを除去すると、マイクロとマクロF1のスコアの平均で文字リンク上のC2の性能が0.83低下する。 0.70
These results prove that the modeling of coreference resolution and character linking can indeed help each other and improve the performance significantly, and the proposed joint learning framework can help to achieve that goal. これらの結果から,コア参照分解能と文字リンクのモデリングが相互に有効であり,性能を著しく向上させることが証明され,提案した共同学習フレームワークがその目標を達成するのに有効である。 0.67
5.5 Case Study Besides the quantitative evaluation, in this section, we present the case study to qualitatively evaluate 5.5 定量的評価の他に,本節では質的評価を行うケーススタディについて述べる。 0.75
1ChandlerOh, Danielle! 1ChandlerOh, Danielle! 0.98
I wasn't expecting the machine... Give me a call when you get a chance. マシンを期待していませんでした...チャンスがあったら電話をください。 0.78
Bye-bye. Oh God!2MonicaThat's what you 'vebeen working on for the past two hours? さようなら。 2Monicaこれはあなたが過去2時間作業しているものですか? 0.60
!3ChandlerHey, I 've been honing!4RossWhat was with the dishes?5ChandlerOh, uh.. 3ChandlerHey, I've honing!4Ross 料理はどうだった?5ChandlerOh, 5ChandlerOh. 0.84
I want her to think I might be in a restaurant.. y'know? 私は彼女が私がレストランにいるかもしれないと思うようにしたい。 0.68
I might have some kind of life, like I haven't been sitting around here honing for the past few hours.6Monica Look look! この数時間この辺りに座っていないような、何かの人生があるかもしれない。6Monica外見! 0.63
He 's doing it again, the guy with the telescope!7PhoebeOh my God! 彼は再びそれをやっている、望遠鏡を持つ男!7PhoebeOh私の神! 0.72
Go away! Stop looking in here!8Monica"Great, now he 's waving back. 逃げろ! 8Monica「すごい、今、彼は振り返っています。 0.50
"9JoeyMan, we gottado something about that guy .This morning, I caught him looking into our apartment. 「9ジョーイマン、あの男について何かしなくちゃ。今朝、彼のアパートを覗き込んできた。 0.60
It creeps me out! I feel like I can't do stuff!10MonicaWhat kindastuff?11JoeyWil l you grow up? 気持ち悪い! 10Monicaどうしたの?11Joey成長してもらえますか? 0.43
I 'm not talking about sexy stuff, but, like, when I 'm cooking naked.12Phoebe You cook naked?13JoeyYeah, toast, oatmeal... nothing that spatters.14ChandlerW hat are you looking at me for? 13JoeyYeah, toast, oatmeal.14Chandler.1 4Chandler, you see me to see me.12Phoebe you cook naked?13JoeyYeah, toast, oatmeal... nothing sputters.14Chandler? 0.76
I didn't know that.MONICACHANDLERD ANIELLEMAN 1JOEY 私はそれを知らなかった.MONICACHANDLERDANIE LLEMAN 1JOEY。 0.56
英語(論文から抽出)日本語訳スコア
the strengths and weaknesses of the proposed C2 model. 提案されたC2モデルの長所と短所。 0.65
As shown in Figure 6, we randomly select an example from the development set to show the prediction results of the proposed model on both tasks. 図6に示すように、両方のタスクで提案されたモデルの予測結果を示すために、開発セットからランダムにサンプルを選択します。 0.76
To illustrate the coreference resolution and character linking results from the C2 model, the mentions from the same coreference cluster are highlighted with the same color. C2モデルからのコアファレンス解像度と文字リンク結果を説明するために、同じコアファレンスクラスタからの言及は同じ色で強調表示されます。 0.75
Also, we use the same color to indicate to which character the mentions are referring. また、言及が参照している文字を示すのに同じ色を使用します。 0.76
Meanwhile, the falsely predicted result is marked with a red cross. 一方、誤った予測結果には赤十字がマークされる。 0.73
5.5.1 Strengths For this example, the results on both tasks are consistent. 5.5.1 強みこの例では、両方のタスクの結果は一貫性があります。 0.63
The mentions that are linked to the same character entity are in the same coreference group and vice versa. 同じキャラクタエンティティにリンクされた言及は、同じコア参照グループにあり、その逆である。 0.67
Based on this observation and previous experimental results, it is more convincing that the proposed model can effectively solve the two problems at the same time. この観察と過去の実験結果から,提案モデルが2つの問題を同時に効果的に解決できることは,より説得力がある。 0.90
Besides that, we also notice that the model does not overfit the popular characters. それに加えて、我々はまた、モデルが人気のある文字をオーバーフィットしないことに気づく。 0.56
It can correctly solve all the mentions referring to not only main characters, and also for the characters that only appear several times such as MAN 1. メインキャラクタだけでなく、MAN 1のような数回しか表示されないキャラクタに対しても、すべての言及を正しく解決することができる。 0.73
Last but not least, the proposed model can correctly resolve the mention to the correct antecedent even though there is a long distance between them in the conversation. 最後に,提案するモデルでは,会話中に距離が長い場合でも,適切な先行語への言及を正しく解決することができる。 0.76
For example, the mention me in utterance 14 can be correctly assigned to the mention you in utterance 2, though there are 11 utterances in between. 例えば、発話14の私の言及は、発話2の言及に正しく割り当てることができますが、間には11の発話があります。 0.74
It shows that by putting two tasks together, the proposed model can better utilize the whole conversation context. 2つのタスクを組み合わせることで、提案モデルが会話コンテキスト全体をうまく活用できることを示す。 0.80
The only error made by the model is incorrectly classifying a mention and at the same time putting it into a wrong coreference cluster. モデルによって行われた唯一のエラーは、言及を誤って分類し、それを間違ったコアファレンスクラスタに入れることです。 0.77
5.5.2 Weaknesses By analyzing the error case, it is noticed that the model may have trouble in handling the mentions that require common sense knowledge. 5.5.2 弱点 エラーケースを分析すると、共通感覚知識を必要とする言及の処理にモデルが支障をきたす可能性があることに気付く。 0.74
Humans can successfully resolve the mention her to Danielle because they know Danielle is on the other side of the telephone, but Monica is in the house. 人間はダニエルが電話の反対側にいることを知っていたのでダニエルへの言及を解決できるが、モニカは家に居る。 0.59
As a result, Chandler can only deceive Danielle but not Monica. その結果、チャンドラーはダニエルをだますことができるが、モニカではない。 0.51
But the current model, which only relies on the context, cannot tell the difference. しかし、現在のモデルはコンテキストのみに依存しており、違いを区別できません。 0.75
5.6 Error Analysis We use the example in Figure 6 to emphasize the error analysis that compares the performance of our model and the baseline models. 5.6 エラー分析 図6の例を使って、モデルとベースラインモデルのパフォーマンスを比較したエラー解析を強調します。 0.86
The details are as follows. 詳細は以下の通り。 次だ 0.55
In this example, the only mistake made by our model is related to common-sense knowledge, and the baseline models are also not able to make a correct prediction. この例では、我々のモデルが犯した唯一の誤りは常識知識に関係しており、ベースラインモデルも正しい予測を行うことができない。 0.75
For coreference resolution, 3 out of 25 mentions are put into a wrong cluster by the c2f baseline model. C2fベースラインモデルでは、コアファレンス解像度では、25件中3件が間違ったクラスタに入れられます。 0.64
The baseline model failed to do longdistance antecedent assignments (e.g., the “me” in utterance 14). ベースラインモデルは、長距離先行的な割り当て(例えば、発話14の"me")を行なわなかった。 0.74
Meanwhile, our model is better in this case because it successfully predicts the antecedent of the mention “me”, even though its corresponding antecedent is far away in utterance 2. 一方,このモデルでは,その先行語が発話2で遠く離れているにもかかわらず,"me"という単語の先行語をうまく予測できるので,このモデルの方が優れている。 0.69
This example demonstrates the advantage that our joint model can use global information obtained from character linking to better resolve the co-referents that are far away from each other. この例では,コラボレーティブモデルがキャラクタリンクから得られるグローバル情報を用いて,互いに遠く離れているコーファレントをよりよく解決できるという利点を示す。 0.84
For character linking, 2 out of 25 mentions are linked to the wrong characters by the baseline model. 文字リンクの場合、ベースラインモデルにより、25件中2件が間違った文字にリンクされます。 0.70
It is observed that the baseline model cannot consistently make correct linking predictions to less-appeared characters, for example, the “He” in utterance 6. ベースラインモデルは、例えば発話6の"He"のように、出現しない文字への正しいリンク予測を一貫して行うことはできない。 0.69
In this case, our model performs better mainly because it can use the information gathered from the nearby co-referents to adjust its linking prediction, as its nearby co-referents are correctly linked to corresponding entities. 本稿では, 近隣の共参照者から収集した情報を用いてリンク予測を調整し, 近隣の共参照者が対応するエンティティに正しく関連付けられているため, モデルの性能が向上する。 0.69
6 Related Works Coreference resolution is the task of grouping mentions to clusters such that all the mentions in the same cluster refer to the same real-world entity (Pradhan et al., 2012; Zhang et al., 2019a,b; Yu et al., 2019). 関連作品6件 Coreference resolutionは、同じクラスタ内のすべての言及が同じ実世界のエンティティ(Pradhan et al., 2012; Zhang et al., 2019a,b; Yu et al., 2019)を指すように、クラスタへの参照をグループ化するタスクである。 0.85
With the help of higher-order coreference resolution mechanism (Lee et al., 2018) and strong pre-trained language models (e.g., SpanBERT (Joshi et al., 2019b)), the end-to-end based coreference resolution systems have been achieving impressive performance on the standard evaluation dataset (Pradhan et al., 2012). 高次コアコンファレンス分解機構(Lee et al., 2018)と強力なプリトレーニング言語モデル(SpanBERT (Joshi et al., 2019b)など)の助けを借りて、エンドツーエンドのコアコンファレンス分解システムは標準評価データセット(Pradhan et al., 2012)で印象的なパフォーマンスを達成しています。 0.76
Recently, motivated by the success of the transfer learning, Wu et al. 最近、トランスファー学習の成功に動機づけられた、Wu et al。 0.58
(2020) propose to model the coreference resolution task as a question answering problem. (2020) コアファレンス分解タスクを質問応答問題としてモデル化することを提案する。 0.75
Through the careful fine-tuning on a high-quality QA dataset (i.e., SQUAD-2.0 (Rajpurkar et al., 2018)), it achieves the state-of-the-art performance on the standard evaluation benchmark. 高品質なQAデータセット(SQUAD-2.0(Rajpurkar et al., 2018)の注意深い微調整により、標準評価ベンチマークにおける最先端のパフォーマンスを達成する。 0.74
However, as disclosed by Zhang et al. しかし、Zhangらによって開示されたように。 0.52
(2020), current systems are still not perfect. (2020年)現在のシステムはまだ完璧ではない。 0.82
For example, they still cannot effectively handle pronouns, especially those in informal language usage scenarios like conversations. 例えば、会話のような非公式な言語使用シナリオでは、代名詞を効果的に扱えない。 0.70
In this paper, we propose to leverage the out-of- 本稿では,out-of-の活用を提案する。 0.66
英語(論文から抽出)日本語訳スコア
context character information to help resolve the coreference relations with a joint learning model, which has been proven effective in the experiments. 実験で有効であることが証明されている共同学習モデルとのコア推論関係を解決するのに役立つコンテキスト文字情報。 0.74
As a traditional NLP task, entity linking (Mihalcea and Csomai, 2007; Ji et al., 2015; Kolitsas et al., 2018; Raiman and Raiman, 2018; Onando Mulang et al., 2020; van Hulst et al., 2020) aims at linking mentions in context to entities in the real world (typically in the format of knowledge graph). 従来のNLPタスクとして、エンティティリンク(Mihalcea and Csomai, 2007; Ji et al., 2015; Kolitsas et al., 2018; Raiman and Raiman, 2018; Onando Mulang et al., 2020; van Hulst et al., 2020)は、実世界のエンティティ(典型的には知識グラフのフォーマット)のコンテキストにおける参照をリンクすることを目的としている。 0.90
Typically, the mentions are named entities and the main challenge is the disambiguation. 通常、言及は名前付きエンティティであり、主な課題は曖昧さの解消である。 0.62
However, as a special case of the entity linking, the character linking task has its challenge that the majority of the mentions are pronouns. しかし、エンティティリンクの特別な場合として、文字リンクタスクには、ほとんどの言及が代名詞であるという課題がある。 0.66
In the experiments, we have demonstrated that when the local context is not enough, the richer context information provided by the coreference clusters could be very helpful for linking mentions to the correct characters. 実験では,ローカルコンテキストが不十分な場合,コア参照クラスタが提供するよりリッチなコンテキスト情報は,適切な文字への参照をリンクするのに非常に有用であることを示した。 0.77
In the NLP community, people have long been thinking that the coreference resolution task and entity linking should be able to help each other. NLPコミュニティでは、人々は長い間、コアコンファレンス解決タスクとエンティティリンクが互いに助け合うべきだと考えてきました。 0.64
For example, Ratinov and Roth (2012) show how to use knowledge from named-entity linking to improve the coreference resolution, but do not consider doing it in a joint learning approach. 例えば、 Ratinov と Roth (2012) は、コア参照の解決を改善するために、名前付きリンクから知識を使う方法を示しているが、共同学習のアプローチでは考えていない。 0.67
After that, Hajishirzi et al. その後、hajishirzi et al。 0.65
(2013) demonstrate that the coreference resolution and entity linking are complementary in terms of reducing the errors in both tasks. (2013) では, コア参照分解能とエンティティリンクが, 両タスクの誤りの低減に相補的であることを示した。 0.63
Motivated by these observations, a joint model for coreference, typing, and linking is proposed (Durrett and Klein, 2014) to improve the performance on three tasks at the same time. これらの観測により、コア推論、タイピング、リンクのためのジョイントモデルが提案され(Durrett and Klein, 2014)、同時に3つのタスクのパフォーマンスを改善する。 0.72
Compared with previous works, the main contributions of this paper are two-fold: (1) we tackle the challenging character linking problem; (2) we design a novel mention representation encoding method, which has been shown effective on both the coreference resolution and character linking tasks. 本論文では,(1) 課題である文字リンク問題に取り組むこと,(2) コアファレンス分解能と文字リンクタスクの両方に有効であることが示された新規な言及表現符号化手法を設計すること,の2つの課題について考察した。 0.81
7 Conclusion In this paper, we propose to solve the coreference resolution and character linking tasks jointly. 7 結論 本稿では,コア参照解決と文字リンクタスクを協調的に解くことを提案する。 0.72
The experimental results show that the proposed model C2 performs better than all previous models on both tasks. 実験の結果,提案したモデルC2は,両タスクの以前のモデルよりも優れた性能を示した。 0.75
Detailed analysis is also conducted to show the contribution of different modules and the effect of the hyper-parameter. 異なるモジュールの寄与とハイパーパラメータの効果を示すために、詳細な解析も行われた。 0.74
8 Acknowledgements This paper was supported by the NSFC Grant U20B2053 from China, the Early Career Scheme 8件の認定 本論文は,中国からのNSFC Grant U20B2053,Early Career Schemeによって支援された。 0.57
(ECS, No. 26206717), the General Research Fund (GRF, No. (ECS, No。 26206717)、一般研究基金(GRF、No。 0.71
16211520), and the Research Impact Fund (RIF, No. 16211520)、および研究影響基金(RIF、No。 0.64
R6020-19) from the Research Grants Council (RGC) of Hong Kong, with special thanks to the Tencent AI Lab Rhino-Bird Focused Research Program. R6020-19)は香港のRGC(Research Grants Council)の出身で、Tencent AI Lab Rhino-Bird Focused Research Programのおかげだ。 0.79
References Henry Y. Chen, Ethan Zhou, and Jinho D. Choi. 参照:Henry Y. Chen、Ethan Zhou、Jinho D. Choi。 0.81
2017. Robust coreference resolution and entity linking on dialogues: Character identification on TV show transcripts. 2017. 対話におけるロバストコア参照の解決とエンティティリンク:テレビ番組の文字識別。 0.76
In Proceedings of CoNLL), pages 216–225. CoNLLのProceedingsでは、216-225ページ。 0.61
Yu-Hsin Chen and Jinho D. Choi. Yu-Hsin ChenとJinho D. Choi。 0.81
2016. Character identification on multiparty conversation: Identifying mentions of characters in TV shows. 2016. 多人数会話におけるキャラクタ識別:テレビ番組におけるキャラクタの言及の識別。 0.73
In Proceedings of SIGDIAL, pages 90–100. Proceedings of SIGDIAL』90-100頁。 0.69
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Jacob Devlin、Ming-Wei Chang、Kenton Lee、Kristina Toutanova。 0.78
2018. Bert: Pre-training of deep bidirectional transformers for language understanding. 2018. Bert: 言語理解のための双方向トランスフォーマーの事前トレーニング。 0.82
arXiv preprint arXiv:1810.04805. arXiv preprint arXiv:1810.04805 0.71
Greg Durrett and Dan Klein. グレッグ・ダレットとダン・クライン 0.56
2014. A joint model for entity analysis: Coreference, typing, and linking. 2014. エンティティ分析のためのジョイントモデル: 参照、タイピング、リンク。 0.75
Transactions of the association for computational linguistics, 2:477–490. 計算言語学協会のトランザクション 2:477–490。 0.70
Hannaneh Hajishirzi, Leila Zilles, Daniel S. Weld, and Luke Zettlemoyer. Hannaneh Hajishirzi、Leila Zilles、Daniel S. Weld、Luke Zettlemoyer。 0.74
2013. Joint coreference resolution and named-entity linking with multi-pass sieves. 2013. マルチパスシーブとの共参照解決と名前付きエンティティリンク 0.72
In Proceedings of the EMNLP 2013, pages 289–299. Proceedings of the EMNLP 2013で、289-299ページ。 0.84
Johannes M. van Hulst, Faegheh Hasibi, Koen Dercksen, Krisztian Balog, and Arjen P. de Vries. Johannes M. van Hulst, Faegheh Hasibi, Koen Dercksen, Krisztian Balog, Arjen P. de Vries
訳抜け防止モード: Johannes M. van Hulst, Faegheh Hasibi, Koen Dercksen, Krisztian Balog そして、Arjen P. de Vries。
0.86
2020. Rel: An entity linker standing on the shoulders of giants. 2020. レル:巨人の肩の上に立っているエンティティリンカー。 0.78
Proceedings of SIGIR 2020. SIGIR 2020の進捗状況。 0.78
Heng Ji, Joel Nothman, Ben Hachey, and Radu Florian. Heng Ji、Joel Nothman、Ben Hachey、Radu Florian。 0.65
2015. Overview of tac-kbp2015 tri-lingual entity discovery and linking. 2015. tac-kbp2015 tri-lingual entity discovery and linksの概要 0.77
Theory and Applications of Categories. カテゴリの理論と応用。 0.70
Mandar Joshi, Danqi Chen, Y. Liu, Daniel S. Weld, L. Zettlemoyer, and Omer Levy. Mandar Joshi、Danqi Chen、Y. Liu、Daniel S. Weld、L. Zettlemoyer、およびOmer Levy。 0.91
2019a. Spanbert: Improving pre-training by representing and predicting spans. 2019年。 Spanbert: スパンの表現と予測による事前トレーニングの改善。 0.72
Transactions of the Association for Computational Linguistics, 8:64–77. The Association for Computational Linguistics, 8:64–77。 0.85
Mandar Joshi, Omer Levy, Daniel S. Weld, and Luke Zettlemoyer. Mandar Joshi、Omer Levy、Daniel S. Weld、Luke Zettlemoyer。 0.75
2019b. BERT for coreference resoIn Proceedings of lution: Baselines and analysis. 2019年。 BERT for coreference resoIn Proceedings of lution: Baselines and analysis 0.69
EMNLP. Ben Kantor and Amir Globerson. EMNLP。 Ben KantorとAmir Globerson。 0.76
2019. Coreference resolution with entity equalization. 2019. 実体等化による参照分解能。 0.64
In Proceedings of ACL 2019, pages 673–677. Proceedings of ACL 2019では、ページ673-677。 0.81
Diederik P. Kingma and Jimmy Ba. Diederik P. KingmaとJimmy Ba。 0.91
2015. Adam: A method for stochastic optimization. 2015. Adam: 確率最適化の方法です。 0.77
In Proceedings of ICLR 2015. ICLR 2015 に出展しました。 0.65
英語(論文から抽出)日本語訳スコア
Nikolaos Kolitsas, Octavian-Eugen Ganea, Nikolaos Kolitsas, Octavian-Eugen Ganea 0.95
and Thomas Hofmann. トーマス・ホフマン。 0.51
2018. End-to-end neural entity In Proceedings of CoNNL 2018, pages linking. 2018. エンドツーエンドの神経エンティティ CoNNL 2018のページリンクの進行。 0.76
519–529. Hongming Zhang, Yan Song, and Yangqiu Song. 519–529. Hongming Zhang、Yan Song、Yangqiu Song。 0.68
Incorporating context and external knowlIn Pro- コンテキストと外部の knowlIn Pro を組み込む 0.79
2019a. edge for pronoun coreference resolution. 2019年。 発音基準分解のためのエッジ。 0.62
ceedings of NAACL-HLT 2019, pages 872–881. NAACL-HLT 2019, page 872–881。 0.83
Hongming Zhang, Yan Song, Yangqiu Song, and Dong Yu. Hongming Zhang、Yan Song、Yangqiu Song、Dong Yu。 0.65
2019b. Knowledge-aware pronoun coreference resolution. 2019年。 知識認識代名詞コリファレンス解決。 0.60
In Proceedings of ACL 2019, pages 867– 876. The Proceedings of ACL 2019, page 867–876。 0.83
Hongming Zhang, Xinran Zhao, and Yangqiu Song. Hongming Zhang、Xinran Zhao、Yangqiu Song。 0.66
2020. A brief survey and comparative study of recent development of pronoun coreference resolution. 2020. 代名詞コア参照分解能の最近の発展に関する簡単な調査と比較研究 0.77
CoRR, abs/2009.12721. CoRR, abs/2009.12721。 0.59
Ethan Zhou and Jinho D. Choi. Ethan ZhouとJinho D. Choi。 0.92
2018. They exist! 2018. 存在する! 0.75
introducing plural mentions to coreference resolution and entity linking. コリファレンス解決とエンティティリンクに複数の言及を導入する。 0.52
In Proceedings of ICCL, pages 24–34. ICCLのProceedingsでは、24-34ページ。 0.64
Kenton Lee, Luheng He, and Luke Zettlemoyer. Kenton Lee、Luheng He、そしてLuke Zettlemoyer。 0.78
2018. Higher-order coreference resolution with coarse-tofine inference. 2018. 粗粒度推論による高次コアファレンス分解能 0.69
In Proceedings of NAACL (Short Papers), pages 687–692. Proceedings of NAACL (Short Papers) 687–692頁。 0.74
Rada Mihalcea and Andras Csomai. Rada MihalceaとAndras Csomai。 0.65
2007. Wikify! 2007. Wikify! 0.85
linking documents to encyclopedic knowledge. ドキュメントと百科事典知識のリンク。 0.65
CIKM ’07, page 233–242. CIKM ’07, page 233–242。 0.86
Isaiah Onando Mulang, Kuldeep Singh, Chaitali Prabhu, Abhishek Nadgeri, Johannes Hoffart, and Jens Lehmann. Isaiah Onando Mulang, Kuldeep Singh, Chaitali Prabhu, Abhishek Nadgeri, Johannes Hoffart, Jens Lehmann。 0.75
2020. Evaluating the impact of knowledge graph context on entity disambiguation models. 2020. 知識グラフコンテキストがエンティティの曖昧さモデルに与える影響を評価する。 0.80
arXiv e-prints, pages arXiv–2008. arXiv e-prints, page arXiv–2008。 0.70
Sameer Pradhan, Alessandro Moschitti, Nianwen Xue, Olga Uryupina, and Yuchen Zhang. Sameer Pradhan, Alessandro Moschitti, Nianwen Xue, Olga Uryupina, Yuchen Zhang 0.69
2012. Conll2012 shared task: Modeling multilingual unrestricted coreference in ontonotes. 2012. conll2012 shared task: modeling multilingual unrestricted coreference in ontonotes (英語) 0.82
pages 1–40. Jonathan Raiman and Olivier Raiman. 1~40ページ。 ジョナサン・レイマンとオリヴィエ・レイマン 0.59
2018. Deeptype: multilingual entity linking by neural type system evolution. 2018. deeptype:neural type system evolutionによる多言語エンティティリンク。 0.86
arXiv preprint arXiv:1802.01021. arXiv preprint arXiv:1801801021。 0.81
Pranav Rajpurkar, Robin Jia, and Percy Liang. Pranav Rajpurkar、Robin Jia、Percy Liang。 0.64
2018. Know what you don’t know: Unanswerable questions for squad. 2018. 知らないことを知る: チームには答えられない質問だ。 0.77
In Proceedings of ACL 2018, pages 784–789. Proceedings of ACL 2018, page 784–789。 0.83
Lev Ratinov and Dan Roth. Lev RatinovとDan Roth。 0.80
2012. Learning-based multi-sieve co-reference resolution with knowledge. 2012. 知識と学習ベースのマルチシーブコリファレンス解決。 0.77
In Proceedings of EMNLP 2012, pages 1234–1244. Proceedings of EMNLP 2012』 1234-1244頁。 0.75
Marta Recasens and Eduard Hovy. Marta RecasensとEduard Hovy。 0.72
2011. Blanc: Implementing the rand index for coreference evaluation. 2011. blanc: 相互参照評価のためのrandインデックスの実装。 0.79
Natural Language Engineering, 17:485 – 510. 自然言語工学、17:485 - 510。 0.85
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, L. Kaiser, and Illia Polosukhin. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, L. Kaiser, Illia Polosukhin 0.79
2017. Attention is all you need. 2017. 注意はあなたが必要とするすべてです。 0.74
ArXiv, abs/1706.03762. ArXiv, abs/1706.03762。 0.58
Marc Vilain, John Burger, John Aberdeen, Dennis Connolly, and Lynette Hirschman. Marc Vilain、John Burger、John Aberdeen、Dennis Connolly、Lynette Hirschman。 0.72
1995. A modeltheoretic coreference scoring scheme. 1995. モデル理論コアスコアリング方式 0.67
Proceedings of the 6th conference on message understanding, pages 45–52. 第6回メッセージ理解会議の進行、45-52ページ。 0.77
Wei Wu, Fei Wang, Arianna Yuan, Fei Wu, and Jiwei Li. Wei Wu、Fei Wang、Arianna Yuan、Fei Wu、Jiwei Li。 0.67
2020. CorefQA: Coreference resolution as In Proceedings ACL query-based span prediction. 2020. CorefQA: In Proceedings ACLクエリベースのスパン予測によるコアリファレンスの解決。 0.76
2020, pages 6953–6963. 2020年、6953-6963ページ。 0.66
Xintong Yu, Hongming Zhang, Yangqiu Song, Yan Song, and Changshui Zhang. Xintong Yu、Hongming Zhang、Yangqiu Song、Yan Song、Changshui Zhang。 0.69
2019. What you see is what you get: Visual pronoun coreference resolution In Proceedings of EMNLP-IJCNLP in dialogues. 2019. 視覚的代名詞 対話におけるemnlp-ijcnlpの手続きにおける共参照解決。 0.68
2019, pages 5122–5131. 2019年、5122-5131ページ。 0.61
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。