論文の概要、ライセンス

# (参考訳) 言語間AMR解析におけるバイリンガル情報の有用性 [全文訳有]

Making Better Use of Bilingual Information for Cross-Lingual AMR Parsing ( http://arxiv.org/abs/2106.04814v1 )

ライセンス: CC BY 4.0
Yitao Cai, Zhe Lin and Xiaojun Wan(参考訳) 抽象意味表現(abstract meaning representation, amr)は、自然言語の意味論を表す非循環グラフである。 以前の研究が示すように、AMRは最初英語用に設計されたが、他の言語のセマンティクスを表現することもできる。 しかし、予測されたAMRグラフの概念は具体的でないことがわかった。 概念の誤認は、英語のトークンとAMRの概念の関連性が高いためである、と我々は主張する。 そこで本研究では,より正確な概念を予測可能にするために,翻訳文と非英語文のバイリンガル入力を導入する。 さらに、デコーダが同時に英語のシーケンスを予測する必要のある補助タスクも導入する。 補助タスクは、対応する英語トークンが正確に何であるかをデコーダが理解するのに役立つ。 提案する言語横断型AMRパーサは,Smatch F1の10.6ポイントを突破した。 アブレーション研究は,提案するモジュールの有効性も示す。

Abstract Meaning Representation (AMR) is a rooted, labeled, acyclic graph representing the semantics of natural language. As previous works show, although AMR is designed for English at first, it can also represent semantics in other languages. However, they find that concepts in their predicted AMR graphs are less specific. We argue that the misprediction of concepts is due to the high relevance between English tokens and AMR concepts. In this work, we introduce bilingual input, namely the translated texts as well as non-English texts, in order to enable the model to predict more accurate concepts. Besides, we also introduce an auxiliary task, requiring the decoder to predict the English sequences at the same time. The auxiliary task can help the decoder understand what exactly the corresponding English tokens are. Our proposed cross-lingual AMR parser surpasses previous state-of-the-art parser by 10.6 points on Smatch F1 score. The ablation study also demonstrates the efficacy of our proposed modules.
公開日: Wed, 9 Jun 2021 05:14:54 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Making Better Use of Bilingual Information for バイリンガル情報の活用をめざして 0.53
Cross-Lingual AMR Parsing Yitao Cai, Zhe Lin and Xiaojun Wan 言語間AMR解析 Yitao Cai, Zhe Lin, Xiaojun Wan 0.69
Wangxuan Institute of Computer Technology, Peking University 北京大学 Wangxuan Institute of Computer Technology 0.72
Center for Data Science, Peking University 北京大学データサイエンスセンター 0.56
The MOE Key Laboratory of Computational Linguistics, Peking University 北京大学 計算言語学moeキー研究室 0.59
{caiyitao,linzhe,wanx iaojun}@pku.edu.cn caiyitao,linzhe,wanx iaojun}@pku.edu.cn 0.78
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] L C . s c [ 9 ]LC。 sc [ 0.60
1 v 4 1 8 4 0 1 v 4 1 8 4 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract Abstract Meaning Representation (AMR) is a rooted, labeled, acyclic graph representing the semantics of natural language. 概要 抽象意味表現(abstract meaning representation, amr)は、自然言語の意味論を表す非循環グラフである。 0.59
As previous works show, although AMR is designed for English at first, it can also represent semantics in other languages. 以前の研究が示すように、AMRは最初英語用に設計されたが、他の言語のセマンティクスを表現することもできる。 0.63
However, they find that concepts in their predicted AMR graphs are less specific. しかし、予測されたAMRグラフの概念は具体的でないことがわかった。 0.64
We argue that the misprediction of concepts is due to the high relevance between English tokens and AMR concepts. 概念の誤認は、英語のトークンとAMRの概念の関連性が高いためである、と我々は主張する。 0.70
In this work, we introduce bilingual input, namely the translated texts as well as non-English texts, in order to enable the model to predict more accurate concepts. そこで本研究では,より正確な概念を予測可能にするために,翻訳文と非英語文のバイリンガル入力を導入する。 0.65
Besides, we also introduce an auxiliary task, requiring the decoder to predict the English sequences at the same time. さらに、デコーダが同時に英語のシーケンスを予測する必要のある補助タスクも導入する。
訳抜け防止モード: それに 補助タスクも導入します。 デコーダが同時に英語のシーケンスを予測することを要求します。
0.72
The auxiliary task can help the decoder understand what exactly the corresponding English tokens are. 補助タスクは、対応する英語トークンが正確に何であるかをデコーダが理解するのに役立つ。 0.64
Our proposed cross-lingual AMR parser surpasses previous state-of-the-art parser by 10.6 points on Smatch F1 score. 提案する言語横断型AMRパーサは,Smatch F1の10.6ポイントを突破した。 0.59
The ablation study also demonstrates the efficacy of our proposed modules. アブレーション研究は,提案するモジュールの有効性も示す。 0.76
Introduction 1 Abstract Meaning Representation (AMR) (Banarescu et al , 2013) is a rooted, labeled, acyclic graph representing sentence-level semantic of text. はじめに 1 Abstract Meaning Representation (AMR) (Banarescu et al , 2013)は、テキストの文レベルの意味を表す、ルート付き、ラベル付き、非巡回グラフである。 0.62
Nodes in the graph are concepts in the texts and edges in the graph are relations between concepts. グラフのノードはテキストの概念であり、グラフのエッジは概念間の関係である。 0.72
Since AMR abstracts away from syntax and preserves only semantic information, it can be applied to many semantic related tasks such as summarization (Liu et al , 2015; Liao et al , 2018), paraphrase detection (Issa et al , 2018), machine translation (Song et al , 2019) and so on. AMRは構文を抽象化して意味情報のみを保存するため、要約(Liu et al , 2015; Liao et al , 2018)、パラフレーズ検出(Issa et al , 2018)、機械翻訳(Song et al , 2019)など、多くの意味的タスクに適用することができる。 0.67
Previous works on AMR parsing mainly focus on English, since AMR is designed for English texts and parallel corpus of non-English texts and AMRs are scarce. AMRは英語のテキストと、非英語のテキストとAMRのパラレルコーパス用に設計されているため、AMRの構文解析は、主に英語に焦点を当てている。
訳抜け防止モード: AMR解析における先行研究 : 英語を中心に AMRは英語のテキストと非英語のテキストとAMRのパラレルコーパスのために設計されている。
0.79
Early work of AMR announces that AMR is biased towards English and is not AMRの初期の研究は、AMRは英語に偏りがあり、そうではないことを発表 0.64
an interlingua (Banarescu et al , 2013). A Interlingua (Banarescu et al , 2013)。 0.76
Besides, some studies show that aligning AMR with nonEnglish language is not always possible (Xue et al , 2014; Hajic et al , 2014). また、AMRを英語以外の言語に合わせることは必ずしも不可能である(Xue et al , 2014; Hajic et al , 2014)。 0.74
However, recent studies (Damonte and Cohen, 2018; Blloshmi et al , 2020) show that AMR parsers are able to recover AMR structures when there are structural differences between languages, which demonstrate that it is capable to overcome many translation divergences. しかし、最近の研究(damonte and cohen, 2018; blloshmi et al , 2020)では、amrパーサが言語間の構造的差異がある場合にamr構造を回復できることが示されている。
訳抜け防止モード: しかし、近年の研究(Damonte and Cohen, 2018)、Blloshmi et al。 AMRパーサがAMR構造を回復できることを示す。 言語間には構造的な違いがあり、多くの翻訳の相違を克服できることを示している。
0.78
Therefore, it is possible for us to parse texts in target (non-English) languages into AMRs. したがって、ターゲット言語(非英語)のテキストをAMRに解析することが可能である。 0.76
Another problem of cross-lingual AMR parsing is the scarcity of parallel corpus. 言語間AMR解析のもう一つの問題は並列コーパスの不足である。 0.59
Unlike machine translation or sentiment classification which have abundant resources on the Internet, we can only get non-English text and AMR pairs by human annotation. インターネット上に豊富なリソースを持つ機械翻訳や感情分類とは異なり、人間のアノテーションによって非英語テキストとAMRペアしか入手できない。 0.71
Damonte and Cohen (2018) align a non-English token with an AMR node if they can be mapped to the same English token to construct training set. Damonte and Cohen (2018) は、トレーニングセットを構築するために同じ英語トークンにマッピングできる場合、非英語トークンとAMRノードを一致させる。 0.81
They further train a transition-based parser using the synthetic training set. さらに、合成トレーニングセットを使用してトランジションベースのパーサをトレーニングする。 0.50
They also attempt to translate test set into English and apply an English AMR parser. また、テストセットを英語に翻訳し、英語のAMRパーサーを適用しようとする。 0.68
Blloshmi et al (2020) build training data in two ways. Blloshmi et al (2020)はトレーニングデータを2つの方法で構築した。 0.71
One of the approaches is that they use gold parallel sentences and generate synthetic AMR annotations with the help of an English AMR parser. アプローチの1つは、英語のAMRパーサの助けを借りて、金の平行文を使用し、合成AMRアノテーションを生成することである。 0.60
Another approach is to use gold English-AMR pairs and get non-English texts by a pre-trained machine translation system. もう一つのアプローチは、ゴールドのイングリッシュ-AMRペアを使用して、事前訓練された機械翻訳システムによって非イングリッシュテキストを取得することである。 0.45
They further use a sequence-to-graph parser (Zhang et al , 2019a) to train a cross-lingual AMR parser. さらに、sequence-to-graphパーサー(zhang et al , 2019a)を使用して、言語交叉型amrパーサーを訓練している。
訳抜け防止モード: さらに、シーケンス - to - graph parser (zhang et al, 2019a) を使用する。 言語交叉型amrパーサーを訓練する。
0.51
According to (Blloshmi et al , 2020), a crosslingual AMR parser may predict the concepts less specific and accurate than the gold concepts. blloshmi et al , 2020) によると、言語交叉のamrパーサは、金の概念よりも特定の概念や正確さを予測できる。 0.68
Therefore, we propose a new model introducing machine translation to enable our parser to predict more accurate concepts. そこで本研究では,パーサがより正確な概念を予測できるように,機械翻訳を導入する新しいモデルを提案する。 0.67
In particular, we first build our training data similar to (Blloshmi et al , 2020), translating English texts into target languages. 具体的には、まず、英語のテキストをターゲット言語に翻訳するトレーニングデータ(Blloshmi et al , 2020)を構築します。 0.78
Our basic model is a sequence-to-sequence 我々の基本モデルはシーケンス・ツー・シーケンスである 0.51
英語(論文から抽出)日本語訳スコア
model, rather than the sequence-to-graph model used in (Blloshmi et al , 2020), since in English AMR parsing, sequence-to-sequence models can achieve state-of-the-art result with enough data for pre-training (Xu et al , 2020). 英語のamr構文解析では、sequence-to-sequence モデルが事前トレーニングのための十分なデータ(xu et al , 2020)で最先端の結果を得ることができるため、モデルが使用されるシーケンシャル-ツーグラフモデル(blloshmi et al , 2020)ではなく、最先端のモデルである。
訳抜け防止モード: Blloshmi et al, 2020)で使用されるシーケンス-to-グラフモデルではなく、モデル。 英語のAMR解析では、シークエンス - to - シークエンスモデルが、事前トレーニングに十分なデータ(Xu et al, 2020)を達成できる。
0.66
While training, we introduce bilingual input by concatenating translated target language texts and English texts as inputs. 学習中に、翻訳対象言語テキストと英語テキストを入力として結合することでバイリンガル入力を導入する。 0.62
As for inference stage, the bilingual input is the concatenation of translated English texts and target language texts. 推論段階では、バイリンガル入力は翻訳された英語のテキストとターゲットの言語テキストの結合である。 0.69
We hope that our model can predict more accurate concepts with the help of the English tokens, while it can still preserve the meaning of the original texts if there are semantic shifts in the translated English texts. 翻訳された英語のテキストに意味的な変化があれば、原文の意味を保ちながら、我々のモデルは英語のトークンの助けを借りてより正確な概念を予測できることを願っている。 0.71
Besides, during training process, we also introduce an auxiliary task, requiring the decoder to restore English input tokens, which also aims at enhancing the ability of our parser to predict concepts. さらに,学習過程では,英語入力トークンの復元をデコーダに要求する補助的タスクも導入する。
訳抜け防止モード: また、トレーニングの過程では補助的なタスクも導入する。 デコーダは英語の入力トークンを復元する必要がある また パーサーの 概念予測能力の向上も目指しています
0.75
Our parser outperforms previous state-of-the-art parser XL-AMR (Blloshmi et al , 2020) on LDC2020T07 dataset (Cai and Knight, 2013) by about 10.6 points of Smatch F1 score on average, which demonstrates the efficacy of our proposed cross-lingual AMR parser. 我々のパーサーは,LDC 2020T07データセット(Cai and Knight, 2013)上の従来の最先端パーサーXL-AMR(Blloshmi et al , 2020)を,平均10.6ポイントのSmatch F1スコアで上回り,提案した言語間AMRパーサーの有効性を示す。 0.65
Our main contributions are summarized as fol- 我々の主な貢献は、folとしてまとめられている。 0.46
lows: • We introduce bilingual inputs and an auxiliary task to a seq2seq cross-lingual AMR parser, aiming to enable the parser to make better use of bilingual information and predict more accurate concepts. ロウズ: • seq2seqクロスリンガルamrパーサにバイリンガル入力と補助タスクを導入し、パーサがバイリンガル情報をよりよく利用し、より正確な概念を予測することを可能にする。
訳抜け防止モード: ロウズ: •バイリンガル入力と補助タスクを Seq2seq cross - lingual AMR parser に導入する。 パーサーがバイリンガル情報をよりよく活用し、より正確な概念を予測できるようにすることを目指しています。
0.62
• Our parser surpasses the best previously reported results of Smatch F1 score on LDC2020T07 by a large margin. ・我々のパーサーは、LCD2020T07で報告されたSmatch F1のスコアを大きなマージンで上回っている。 0.54
The results demonstrate the effectiveness of our parser. その結果, パーサーの有効性が示された。 0.51
Ablation studies show the usefulness of the model modules. アブレーション研究はモデルモジュールの有用性を示している。 0.72
Codes are public available 1. コードは公開されている。 0.59
• We further carry out experiments to investigate the influence of incorporating pretraining models into our cross-lingual AMR parser. •我々はさらに,言語交叉型amr解析器に事前学習モデルを取り込むことによる影響について検討する実験を行った。 0.63
2 Related Work Abstract Meaning Representation (AMR) (Banarescu et al , 2013) parsing is becoming popular recently. 2 関連作業 抽象的意味表現 (AMR) (Banarescu et al , 2013) の構文解析が最近人気になっている。 0.76
Some of previous works (Flanigan et al , 2014; Lyu and Titov, 2018; Zhang et al , 2019a) 以前の作品(Flanigan et al , 2014, Lyu and Titov, 2018, Zhang et al , 2019a) 0.73
1https://github.com/ headacheboy/cross-li ngual-amr- 1https://github.com/ headacheboy/cross-li ngual-amr- 0.26
parsing solve this problem with a two-stage approach. parsing~ この問題を2段階のアプローチで解決する。 0.73
They first project words in sentences to AMR concepts, followed by relation identification. 彼らはまず文中の単語をAMRの概念に投影し、続いて関係同定を行う。 0.62
Transitionbased parsing is applied by (Wang et al , 2015b,a; Damonte et al , 2017; Liu et al , 2018; Guo and Lu, 2018; Naseem et al , 2019; Lee et al , 2020). トランジッションベースの構文解析は (wang et al , 2015b,a; damonte et al , 2017; liu et al , 2018; guo and lu, 2018; naseem et al , 2019; lee et al , 2020) によって適用される。
訳抜け防止モード: 遷移解析は (Wang et al, 2015b) によって適用される。 a; Damonte et al, 2017; Liu et al, 2018; Guo and Lu, 2018 ; Naseem et al, 2019 ; Lee et al, 2020 ) .
0.92
They align words with AMR concepts and then take different actions based on different processed words to link edges or insert new nodes. 彼らは単語をAMRの概念と整列させ、異なる処理された単語に基づいて異なるアクションを取り、エッジをリンクしたり、新しいノードを挿入したりする。 0.57
Due to the recent development in sequence-to-sequence model, several works employ it to parse texts into AMRs (Konstas et al , 2017; van Noord and Bos, 2017; Ge et al , 2019; Xu et al , 2020). 近年のシーケンス・ツー・シーケンス・モデルの発展により、テキストをAMRに解析するためにいくつかの研究がなされている(Konstas et al , 2017; van Noord and Bos, 2017; Ge et al , 2019; Xu et al , 2020)。 0.72
They linearize AMR graphs and leverage character-level or word-level sequence-to-sequence model. AMRグラフを線形化し、文字レベルまたは単語レベルのシーケンス・ツー・シーケンスモデルを活用する。 0.45
Sequence-to-graph model is proposed to enable the decoder to better model the graph structure. グラフ構造をより良くモデル化するためのシーケンス・ツー・グラフモデルを提案する。 0.66
Zhang et al (2019a) first use a sequence-to-sequence model to predict concepts and use a biaffine classifier to predict edges. Zhang et al (2019a) はまずシーケンス・ツー・シーケンス・モデルを使用して概念を予測し、分岐分類器を使ってエッジを予測する。
訳抜け防止モード: Zhang et al (2019a ) はまずシークエンスモデルを使用する。 バイアス分類器を使って エッジを予測します
0.67
Zhang et al (2019b) propose a one-stage sequence-to-graph model, predicting concepts and relations at the same time. Zhang et al (2019b) は1段階の逐次グラフモデルを提案し、概念と関係を同時に予測する。 0.76
Cai and Lam (2020) regard AMR parsing as dual decisions on input sequences and constructing graphs. Cai and Lam (2020) は、AMR解析を入力シーケンスとグラフの構成に関する二重決定と見なしている。 0.63
They therefore propose a sequence-to-graph method by first mapping an input words to a concept and then linking an edge based on the generated concepts. そこで彼らは、まず入力された単語を概念にマッピングし、その後に生成された概念に基づいてエッジをリンクするシーケンシャル・ツー・グラフ法を提案する。 0.53
Recently, pre-training models have been proved to perform well in AMR parsing (Xu et al , 2020). 近年,AMR解析(Xu et al , 2020)において,事前学習モデルの有効性が証明されている。 0.69
Lee et al (2020) employ a self-training method to enhance a transition-based parser, which achieves the state-ofthe-art Smatch F1 score in English AMR parsing. Lee et al (2020)は、英語のAMR解析において最先端のSmatch F1スコアを達成するトランジッションベースのパーサーを強化するために自己学習法を採用している。
訳抜け防止モード: Lee氏(2020年)は、移行ベースのパーサーを強化するためにセルフトレーニング手法を使用している。 Smatch F1 score in English AMR parsing(英語)
0.67
Vanderwende et al (2015) first carry out research of cross-lingual AMR parsing. Vanderwende et al (2015) は言語間AMR解析の研究を最初に行った。 0.72
They parse texts in target language into logical forms as a pivot, which are then parsed into AMR graphs. ターゲット言語のテキストをピボットとして論理形式に解析し、AMRグラフに解析する。
訳抜け防止モード: 彼らは対象言語のテキストをピボットとして論理形式に解析する。 その後、AMRグラフに解析される。
0.66
Damonte and Cohen (2018) attempt to project non-English words to AMR concepts and use a transition-based parser to parse texts to AMR graphs. Damonte と Cohen (2018) は、非英語の単語を AMR の概念に投影し、テキストを AMR グラフに解析するために遷移ベースのパーサーを使用する。 0.71
They also attempt to automatically translate non-English texts to English and exploit an English AMR parser. また、英語以外のテキストを自動的に英語に翻訳し、英語のamrパーサーを利用する。 0.58
Blloshmi et al (2020) try to generate synthetic training data by a machine translation system or an English AMR parser. Blloshmi et al (2020)は、機械翻訳システムまたは英語のAMRパーサによって合成訓練データを生成する。 0.83
They conduct experiments with a sequenceto-graph model in different settings, trying to find a best way to train with synthetic training data. 彼らは異なる設定でシーケントグラフモデルで実験を行い、合成トレーニングデータでトレーニングする最良の方法を見つけ出そうとする。 0.73
Different from (Blloshmi et al , 2020), we treat crosslingual AMR parsing as a sequence-to-sequence transduction problem and improve seq2seq models with bilingual input and auxiliary task. blloshmi et al , 2020と異なり,多言語間amr解析をシーケンスからシーケンスへの変換問題として扱い,バイリンガル入力と補助タスクによるseq2seqモデルを改善する。 0.69
英語(論文から抽出)日本語訳スコア
text in non-English target language, which may not be very accurate. 非英語のターゲット言語でのテキストは、あまり正確ではないかもしれない。 0.65
During inference, the bilingual input is composed of translated English text and original text in target language. 推論中、バイリンガル入力は翻訳された英語のテキストとターゲット言語の原文から構成される。 0.67
With the help of bilingual input, our model can better understand and preserve the semantics of target language texts, and predict more accurate concepts according to the translated English texts. バイリンガル入力の助けを借りて,対象言語テキストの意味をよりよく理解し,保存し,翻訳された英語テキストに従ってより正確な概念を予測する。 0.77
Apart from predicting AMR sequences, the model is also required to predict the English input texts as an auxiliary objective, which can further help the model learn the exact meaning of input tokens and predict their corresponding concepts more accurately. AMRシーケンスの予測以外にも、英語の入力テキストを補助目的として予測することが求められており、入力トークンの正確な意味を学習し、それに対応する概念をより正確に予測することができる。 0.74
We will first introduce the way we obtain training data and the pre-processing and post-processing process in Section 4.1 and Section 4.2, followed by introducing the basic sequence-to-sequence model, the bilingual input and the auxiliary task. まず,第4.1節と第4.2節でトレーニングデータと前処理・後処理プロセスについて紹介し,基本シーケンス・ツー・シーケンスモデル,バイリンガル入力,補助タスクについて紹介する。 0.75
4.1 Synthetic Training Data Blloshmi et al (2020) propose two methods to generate parallel training data, namely parallel sentences - silver AMR graphs and gold AMR graphs - silver translations. 4.1 Synthetic Training Data Blloshmi et al (2020) は、並列トレーニングデータを生成する2つの方法、すなわち、銀AMRグラフと金AMRグラフ、銀翻訳を提案する。 0.79
The first approach means that we exploit human annotated parallel corpus of target languages and English and use an English parser to get the corresponding AMR graphs. 最初のアプローチは、人間の注釈付き並列コーパスをターゲット言語と英語で利用し、対応するAMRグラフを取得するために英語パーサーを使用することである。 0.72
The second approach means that we exploit human annotated English-AMR pairs and use a machine translation system to get texts in target languages. 第2のアプローチは、人間の注釈付き英語とAMRのペアを利用して、機械翻訳システムを使ってターゲット言語でテキストを取得することである。
訳抜け防止モード: 第2のアプローチは、人間の注釈付き英語-AMRペアを利用することを意味する 機械翻訳システムを使い ターゲット言語でテキストを得るのです
0.73
According to (Blloshmi et al , 2020), model training with data generated by gold EnglishAMR pairs performs better. Blloshmi et al , 2020)によると、金のイングリッシュAMRペアが生成したデータによるモデルトレーニングは、より優れている。 0.65
We thus exploit this approach (i.e., gold AMR graphs - silver translations) to generate our data for training and validation. したがって、このアプローチ(すなわちgold amr graphs - silver translations)を利用して、トレーニングと検証のためのデータを生成します。 0.72
4.2 Pre-Processing and Post-Processing Following (van Noord and Bos, 2017), we first remove variables, since variables are only used to identify the same node in a graph and contain no semantic information, which may do harm to the model training process. 4.2 前処理と後処理のフォロー (van Noord and Bos, 2017) により、変数はグラフ内の同じノードを識別するのにのみ使用され、意味情報を含まないため、まず変数を削除します。
訳抜け防止モード: 4.2 前処理と後処理 (van Noord and Bos, 2017) 変数はグラフ内の同じノードを識別するのにのみ使用されるので セマンティックな情報は含まないが、それはモデルのトレーニングプロセスに害を与える可能性がある。
0.76
We also remove wiki links (:wiki), since sequence-to-sequence model may link to non-existing objects of Wikipedia. シーケンスツーシーケンスモデルはwikipediaの既存のオブジェクトとリンクする可能性があるので、wikiリンク(:wiki)も削除します。 0.61
As for co-referring nodes, we simply duplicate the concepts. ノードの共参照については、単純に概念を複製します。 0.57
It transforms an AMR graph into a tree. AMRグラフを木に変換する。 0.59
The final linearized AMR is the pre-order traversal of the tree. 最終線形化 AMR は、ツリーのプレオーダートラバースである。 0.73
In post-processing, we should restore a predicted AMR sequence without variables, wiki links and co-referring nodes to a AMR graph. 後処理では、変数、wikiリンク、およびAMRグラフへの共参照のない予測されたAMRシーケンスを復元する。 0.62
Following Figure 1: An example of cross-lingual AMR parsing. 以下 図1: 言語交叉型amrパースの一例。 0.64
A Non-English text is first parsed into an AMR sequence and then the sequence is converted to an AMR graph. 非英語のテキストはまずAMRシーケンスに解析され、その後、シーケンスはAMRグラフに変換される。 0.69
3 Problem Setup Cross-lingual AMR parsing is the task of parsing non-English texts into AMR graphs corresponding to their English translation. 3 Problem Setup Cross-lingual AMR parsingは、非英語のテキストを英訳に対応するAMRグラフに解析するタスクである。 0.82
In this task, nodes in AMR graphs are still English words, PropBank framesets or AMR keywords, which are the same as the original design of AMR. このタスクでは、AMRグラフのノードはまだ英語の単語、PropBankのフレームセットまたはAMRキーワードであり、これはAMRのオリジナルの設計と同じである。
訳抜け防止モード: このタスクでは、AMRグラフのノードはまだ英語の単語です。 PropBankのフレームセットまたはAMRキーワード AMRのオリジナルの設計と同じです。
0.78
Figure 1 shows an example of cross-lingual AMR parsing. 図1は言語間AMR解析の例を示している。 0.66
We define X l as an input sample in language l and X l i is the i-th token of it. X l を言語 l の入力サンプルとして定義し、X l i をその i 番目のトークンとする。 0.73
y is the corresponding AMR sequence derived from the AMR graph, and yi is the i-th token. y は AMR グラフから派生した対応する AMR シーケンスであり、yi は i 番目のトークンである。 0.66
The model should predict the AMR sequence y first and then transform the sequence into a graph. モデルはまずAMRシーケンスyを予測し、次にシーケンスをグラフに変換する。 0.66
4 Our Proposed Model Figure 2 shows the training and inference processes of our proposed model. 4 提案したモデル図2は、提案モデルのトレーニングと推論プロセスを示す。 0.83
The basic model we adopt is Transformer (Vaswani et al , 2017) encoderdecoder model, since Xu et al (2020) show that it can achieves state-of-the-art result in English AMR parsing. 私たちが採用している基本的なモデルはtransformer (vaswani et al , 2017) encoderdecoderモデルです。
訳抜け防止モード: 私たちが採用している基本的なモデルはTransformer(Vaswani et al, 2017)エンコーダデコーダモデルです。 Xu et al (2020 ) は、英語の AMR 解析において、--- アートの結果を達成できることを示している。
0.57
We introduce the bilingual input to our model. バイリンガル入力をモデルに導入する。 0.47
When training the model, the bilingual input contains original English text and translated モデルを訓練するとき、バイリンガル入力はオリジナルの英語テキストを含み、翻訳される 0.64
Alle entsprechenden Papiere wurden validiert.Tutti i documenti necessari sono stati convalidati.Todo el papeleo apropiado ha sido validado. alle entsprechenden papiere wurden validiert.tutti i documenti necessari sono stati convalidati.todo el papeleo apropiado ha sido validado 0.95
(cid:11566)(cid:1961 )(cid:11450)(cid:626 2)(cid:7487)(cid:118 0)(cid:19864)(cid:17 274)(cid:7119)(cid:3 453)(cid:5581)(cid:2 150)(cid:1212)(cid:2 0674)(cid:16887)(cid :574)( validate-01 : ARG1 ( paperwork : ARG1-of ( appropriate-02 ) : mod ( all ) ) )Validate-01paperwor kappropriate-02ARG1A RG1-ofallmodParallel SentencesAMR sequenceAMR graphDEITESZH (cid:11566)(cid:1145 0)(cid:6262)(cid:748 7)(cid:1180)(cid:172 74)(cid:7119)(cid:34 53)(cid:5581)(cid:21 50)(cid:1212)(cid:20 674)(cid:16887)(cid: 574)( validation-01 : ARG1-of ( appropriate-02 ) : mod (all ) ) Validate-01paperwork appropriate-02ARG1AR G1-ofallmodParallel SentencesAMR graphAMRZH 0.75
英語(論文から抽出)日本語訳スコア
Figure 2: Overview of our proposed model. 図2: 提案したモデルの概要。 0.79
(cid:76) is the concatenation operation. (cid:76)は連結操作である。 0.74
Number Training Development 36521 番号 開発研修(36521) 0.71
1368 Test 1371 1368 テスト1371 0.79
Table 1: Statistics of gold English-AMR dataset 表1:金英AMRデータセットの統計 0.84
(van Noord and Bos, 2017), We first restore variables and prune duplicated nodes, which brings co-reference back to the AMR sequence. (van Noord and Bos, 2017) AMRシーケンスに共参照をもたらす変数とプリーン重複ノードを最初に復元する。 0.63
van Noord and Bos (2017) use DBpedia Spotlight to restore wiki links. van Noord と Bos (2017) は DBpedia Spotlight を使ってwiki リンクを復元している。 0.73
However, same entity in different language is linked to different pages in DBpedia, which makes it difficult for cross-lingual AMR parser to restore the wiki linking the entity in English. しかし、異なる言語における同じエンティティがDBpediaの異なるページにリンクされているため、言語間AMRパーサが英語でエンティティをリンクするwikiを復元することは困難である。 0.71
Different from (van Noord and Bos, 2017), we restore a wiki link of a certain name if this name corresponds to the wiki link in training set. Van Noord と Bos, 2017 と異なり、トレーニングセットで wiki リンクに対応する場合、特定の名前の wiki リンクを復元する。
訳抜け防止モード: van noordとbos, 2017)とは異なり、ある名前のウィキリンクを復元します。 この名称はトレーニングセットのウィキリンクに対応する。
0.67
4.3 Sequence-to-Sequence Model 4.3 シーケンス・ツー・シーケンスモデル 0.40
After pre-processing, both input texts and output AMRs are sequences. 事前処理後、入力テキストと出力AMRの両方がシーケンスである。 0.67
Hence we are able to apply a sequence-to-sequence model to accomplish cross-lingual AMR parsing. したがって、シーケンス・ツー・シーケンス・モデルを用いて言語間AMR解析を行うことができる。 0.55
We use Transformer (Vaswani et al , 2017), one of the most popular sequence-to-sequence model as our basic model. 基本的なモデルとしては、最も人気のあるシーケンシャル・ツー・シーケンスモデルのひとつであるtransformer(vaswani et al , 2017)を使用します。
訳抜け防止モード: 私たちはTransformer(Vaswani et al, 2017)を使っています。 -to-Sequence 基本モデルとしてモデルを作りました
0.68
In order to be compatible with pre-training XLMR (Conneau et al , 2020a) model, the tokenizer and input vocabulary we used is the same as XLM-R. Subword unit such as byte pair encoding (BPE) (Sennrich et al , 2016) is commonly used to reduce the size of vocabulary. プリトレーニングxlmr(conneau et al , 2020a)モデルと互換性があるため、私たちが使用したトークン化と入力語彙は、xlm-rと同じである。
訳抜け防止モード: プレ-トレーニングXLMR(Conneau et al, 2020a )モデルと互換性がある。 バイトペアエンコーディング (BPE) (Sennrich et al, 2016) のようなサブワード単位は、語彙のサイズを減らすために一般的に使用される。
0.64
Thus, we exploit BPE to get our output vocabulary. したがって、BPEを利用して出力語彙を取得する。 0.77
4.4 Bilingual Input AMR concepts heavily rely on the corresponding English texts. 4.4 バイリンガル入力 AMR の概念は対応する英語のテキストに大きく依存している。 0.61
According to (Damonte and Cohen, 2018), a simple method that first translates the test set into English and then applies an English AMR parser can outperform their cross-lingual AMR parser. Damonte and Cohen, 2018)によると、まずテストセットを英語に翻訳し、次に英語のAMRパーサを適用して、言語横断のAMRパーサを上回ります。 0.60
However, machine translation may introduce semantic shifts, which may do harm to the generation of AMRs. しかし、機械翻訳は意味シフトを導入し、AMRの生成に害を与える可能性がある。 0.73
We therefore introduce the bilingual input. したがって、バイリンガル入力を導入する。 0.58
Since we do not have gold parallel corpus, we use machine translation to get the bilingual input. 金パラレルコーパスがないため、バイリンガル入力を得るために機械翻訳を使用する。 0.56
During training, we concatenate the translated text in target language mentioned in Section 4.1 and the original English text as bilingual input. トレーニング中,第4節1に記載されている対象言語における翻訳テキストと,原文をバイリンガル入力として結合する。 0.71
At the inference stage, we take the bilingual input by concatenating original target language texts and the translated English text. 推論段階では、元のターゲット言語テキストと翻訳された英語テキストを連結してバイリンガル入力をとる。 0.71
The model can better understand and preserve the semantic meanings of the input bilingual text. このモデルは、入力されたバイリンガルテキストの意味をよりよく理解し、保存することができる。 0.46
It can also predict more correct concepts, since the English tokens are also provided. 英語のトークンも提供されるので、より正確な概念を予測することもできる。 0.71
4.5 Auxiliary Task AMR concepts are composed of English words and Propbank frames. 4.5 補助タスク AMR の概念は英語の単語と Propbank フレームで構成されている。 0.67
According to (Blloshmi et al , 2020), roughly 60% of nodes in AMR 2.0 (LDC2017T10) are English words. Blloshmi et al , 2020 によると、AMR 2.0 (LDC2017T10) のノードの約60%は英語の単語である。 0.75
What’s more, Propbank predicates are similar to English words, such as predicate publish-01 and word publish. さらにpropbankの述語は、predicate publish-01やword publishingのような英語の単語に似ている。 0.75
We argue that if the decoder can restore the input tokens in English precisely, it can predict the corresponding concepts appropriately. 我々は、デコーダが英語の入力トークンを正確に復元できれば、対応する概念を適切に予測できると主張する。 0.80
(cid:3422)(cid:13431 )(cid:14745)(cid:275 4)(cid:5294)(cid:122 29)(cid:11450)(cid:7 212)(cid:7509)(cid:1 5)(cid:3)(cid:4024)( cid:8602)(cid:3933)( cid:11450)(cid:3430) (cid:19773)(cid:1247 1)(cid:10092)(cid:25 67)(cid:11093)(cid:5 74)</s>(cid:3)Transformer EncoderDuring a time of prosperity and happiness, such a big earthquake suddenly struck.</s>Transformer Decoder<s2> ( strike-01 :ARG2 ( earthquake :mod ( big :mod ( such ) ) ) :time ( time :op1 ( prosper-01 ) :op2 ( happiness ) ) :manner ( sudden ) )<s> During a time of prosperity and happiness, such a big earthquake suddenly struck.</s>Translated Target Language SentenceEnglish SentenceEnglish sequenceAMR sequenceTranslate(a) Model Training(cid:4688)(c id:7190)(cid:8602)(c id:8535)(cid:1217)(c id:1324)(cid:18006)( cid:6214)(cid:1964)( cid:1292)(cid:6549)( cid:4585)(cid:6220)( cid:1370)(cid:1239)( cid:11450)(cid:6363) (cid:2688)(cid:574)& lt;/s>Transformer EncoderNo other damage or casualties were reported as a result of the incident . (cid:3422)(cid:13431 )(cid:14745)(cid:275 4)(cid:5294)(cid:122 29)(cid:11450)(cid:7 212)(cid:7509)(cid:1 5)(cid:3)(cid:4024)( cid:8602)(cid:3933)( cid:11450)(cid:3430) (cid:19773)(cid:1247 1)(cid:10092)(cid:25 67)(cid:11093)(cid:5 74)</s>(cid:3)Transformer EncoderDuring a time of prosperity and happiness, such a big earthquake suddenly struck.</s>Transformer Decoder<s2> ( strike-01 :ARG2 ( earthquake :mod ( big :mod ( such ) ) ) :time ( time :op1 ( prosper-01 ) :op2 ( happiness ) ) :manner ( sudden ) )<s> During a time of prosperity and happiness, such a big earthquake suddenly struck.</s>Translated Target Language SentenceEnglish SentenceEnglish sequenceAMR sequenceTranslate(a) Model Training(cid:4688)(c id:7190)(cid:8602)(c id:8535)(cid:1217)(c id:1324)(cid:18006)( cid:6214)(cid:1964)( cid:1292)(cid:6549)( cid:4585)(cid:6220)( cid:1370)(cid:1239)( cid:11450)(cid:6363) (cid:2688)(cid:574)& lt;/s>Transformer EncoderNo other damage or casualties were reported as a result of the incident . 0.84
</s>Transformer Decoder( report-01 :polarity - : ARG1 ( or :op1 ( damage :mod ( other :mod ( any ) ) ) :op2 ( casualty ) ) :prep-in ( incident ) )Target language SentenceTranslated English SentenceAMR sequenceTranslate(b) Model Inference </s>Transformer Decoder( report-01 :polarity - : ARG1 ( or :op1 ( damage :mod ( other :mod ( any ) ) ) :op2 ( casualty ) ) :prep-in ( incident ) ) ターゲット言語 Sentence Translated English SentenceAMR sequence Translate(b) Model Inference 0.98
英語(論文から抽出)日本語訳スコア
We thus design an auxiliary task, requiring the decoder to predict the English input sequence. そこで我々は、英語入力シーケンスを予測するためにデコーダを必要とする補助タスクを設計する。 0.72
Inspired by multilingual machine translation (Johnson et al , 2017), we add a new BOS token indicating that the model should predict the English sequences instead of AMR sequences. マルチリンガル機械翻訳(Johnson et al , 2017)にインスパイアされた新しいBOSトークンを追加し、AMRシーケンスの代わりに英語シーケンスを予測すべきであることを示す。 0.68
The decoder predicting English sequences share the same weights as the decoder predicting AMR sequences. 英語シーケンスを予測するデコーダは、AMRシーケンスを予測するデコーダと同じ重みを共有する。 0.67
The final loss function is the weighted sum of loss functions of these two tasks: LossAM R - the loss of AMR sequence prediction and LossEngthe loss of English sentence prediction. 最後の損失関数は2つのタスクの損失関数の重み付け和である: LossAM R - AMRシーケンス予測の損失とLosEngtheの英語文予測の損失。
訳抜け防止モード: 最後の損失関数は、これらの2つのタスクの損失関数の重み付け和である:LossAM R - AMRシーケンス予測の損失 LossEng the loss of English sentence prediction (英語)
0.86
We adopt the cross-entropy loss for both tasks. 両タスクにクロスエントロピー損失を適用します。 0.59
Implementation Details 5 The coefficient of LossAM R is 1, while the coefficient of LossEng is 0.5. 実施内容 5LossAM Rの係数は1、LossEngの係数は0.5である。 0.56
We use Adam optimizer (Kingma and Ba, 2015) to optimize the final loss function. 我々はAdam Optimizationr (Kingma and Ba, 2015) を用いて最終損失関数を最適化する。 0.90
The number of transformer layers in both encoder and decoder is 6. エンコーダとデコーダの両方におけるトランスフォーマー層の数は6である。 0.78
The embedding size and hidden size are both 512 and the size of feed-forward network is 2048. 埋め込みサイズと隠蔽サイズはともに512であり、フィードフォワードネットワークのサイズは2048である。 0.81
The head number of multi-head attention is 8. マルチヘッドアテンションの先頭数は8。 0.66
We follow (Vaswani et al , 2017) to tune the learning rate each step and the warmup step is 4000. 私たちは(vaswani et al , 2017)、各ステップの学習率を調整し、ウォームアップステップは4000です。 0.80
The learning rate for decoder at each step is half of this learning rate. 各ステップにおけるデコーダの学習率は、この学習率の半分である。 0.79
Following (Blloshmi et al , 2020), we use machine translation system OPUS-MT (Tiedemann and Thottingal, 2020) to get our bilingual input. 続いて (blloshmi et al , 2020) では,機械翻訳システム opus-mt (tiedemann and thottingal, 2020) を用いてバイリンガル入力を行う。 0.80
We use all data from different languages to train our model and the final model is able to parse sentences in different languages. 異なる言語からのすべてのデータを使ってモデルをトレーニングし、最終モデルは異なる言語で文を解析することができます。 0.82
6 Experiments 6.1 Dataset The released test set, LDC2020T07, contains four translations of test set of AMR 2.0, including German (DE), Italian (IT), Spanish (ES) and Chinese(ZH). 6 Experiments 6.1 Dataset LDC 2020T07は、ドイツ(DE)、イタリア(IT)、スペイン(ES)、中国(ZH)を含むAMR 2.0のテストセットの4つの翻訳を含んでいる。 0.78
As is mentioned in Section 4.1, we translate the sentences in a gold English-AMR dataset to get training and development data with OPUS-MT. 第4節1で述べたように、金の英語-AMRデータセットの文を翻訳し、OPUS-MTでトレーニングと開発データを取得する。 0.65
We use AMR 2.0 as our gold English-AMR dataset. AMR 2.0を金のイングリッシュAMRデータセットとして使用しています。 0.52
We also translate test sets in German, Italian, Spanish and Chinese back to English as input texts. また、テストセットをドイツ語、イタリア語、スペイン語、中国語で入力テキストとして英語に翻訳します。 0.62
The statistics of AMR 2.0 are shown in Table 1. AMR 2.0の統計は表1に示されている。 0.76
6.2 Evaluation Metric Smatch (Cai and Knight, 2013) is the evaluation metric of AMR parsing. 6.2 Evaluation Metric Smatch (Cai and Knight, 2013)は、AMR解析の評価指標である。 0.85
In this evaluation metric, AMR graph is regarded as several triples. この評価基準では、AMRグラフはいくつかのトリプルと見なされる。 0.63
Smatch AMREager スマッチ AMREAger 0.58
XL-AMR (Mul) XL-AMR (Mul*) XL-AMR (Lang) XL-AMR (Bi) Translate-test XL-AMR (Mul) XL-AMR (Mul*) XL-AMR (Lang) XL-AMR (Bi) Translate-test 0.77
Ours DE 39.0 49.9 52.1 51.6 53.0 60.4 64.0 我々の DE 39.0 49.9 52.1 51.6 53.0 60.4 64.0 0.53
IT 43.0 53.5 56.7 56.7 58.1 62.1 65.4 IT 43.0 53.5 56.7 56.7 58.1 62.1 65.4 0.46
ES 42.0 53.2 56.2 56.1 58.0 63.3 67.3 ES 42.0 53.2 56.2 56.1 58.0 63.3 67.3 0.46
ZH 35.0 41.0 ZH 35.0 41.0 0.59
- 43.1 41.5 53.7 56.5 - 43.1 41.5 53.7 56.5 0.65
AVG 39.8 49.4 AVG 39.8 49.4 0.59
- 51.9 52.7 59.9 63.3 - 51.9 52.7 59.9 63.3 0.65
Table 2: Smatch F1 scores of different models on German (DE), Italian (IT), Spanish (ES) and Chinese (ZH). 表2: Smatch F1はドイツ語(DE)、イタリア語(IT)、スペイン語(ES)、中国語(ZH)の異なるモデルのスコアである。 0.77
(Mul) represents multilingual setting. (Mul)は多言語設定を表す。 0.72
(Mul*) represents multilingual setting except Chinese data. (Mul*)は中国語データ以外の多言語設定を表す。 0.70
(Lang) represents language specific setting. (Lang)は言語固有の設定を表す。 0.79
(Bi) represents bilingual setting. (bi)はバイリンガル設定を表す。 0.66
The Smatch F1 score of English AMR parser is 68.3. 英語のAMRパーサーのSmatch F1スコアは68.3である。 0.68
Results of the best models are in bold. 最高のモデルの結果は大胆です。 0.69
counts the numbers of matched triples and outputs the score based on total numbers of triples of two AMR graphs. マッチしたトリプルの数を数え、2つのamrグラフのトリプルの総数に基づいてスコアを出力する。 0.75
We use the Smatch scripts available online 2. Smatchスクリプトはオンラインで利用可能です。 0.71
Following (Damonte et al , 2017), we also introduce many fine-grained evaluations in order to evaluate the quality of the predicted AMR graphs in different aspects. 続いて(damonte et al, 2017)、予測されたamrグラフの品質を異なる側面で評価するために、多くの細粒度評価を導入する。 0.62
We omit the details of these fine-grained evaluations here, which can be found in (Damonte et al , 2017). ここでは、これらの詳細な評価の詳細を省略する(Damonte et al , 2017)。 0.60
6.3 Main Results We compare our model with previous works and baseline methods including: 6.3 主な結果 このモデルと以前の作業およびベースラインメソッドを比較した。 0.80
• AMREager. ・AMREager。 0.57
This is the model proposed by Damonte and Cohen (2018). これはDamonte and Cohen (2018)によって提案されたモデルである。 0.68
They assume t in target language is aligned that if a word X l u in English and the English with the word X en word aligns with AMR concept yi, X l t can be aligned with yi. ターゲット言語のtは、英語のX l u と英語の X en が AMR の概念 yi と一致しているなら、X l t は yi と一致させることができると仮定する。 0.70
Based on this assumption, they project AMR annotations to target languages and further train a transition-based AMR parser (Damonte et al , 2017) as in English. この仮定に基づいて、彼らはターゲット言語にAMRアノテーションを投影し、さらに英語のように遷移ベースのAMRパーサ(Damonte et al , 2017)をトレーニングする。 0.66
• XL-AMR. This is the model proposed by (Blloshmi et al , 2020). •XL-AMR。 これは (Blloshmi et al , 2020) によって提案されたモデルである。 0.70
When conducting experiments of their best model, they first generate synthetic training and validation data by machine translation. 最適なモデルの実験を行う際には、まず機械翻訳による合成トレーニングと検証データを生成する。 0.83
They then train an AMR parser on target language with a sequenceto-graph parser. その後、sequenceto-graphパーサを使用してターゲット言語でamrパーサをトレーニングする。 0.54
They experiment XL-AMR 彼らはXL-AMRを実験する 0.40
2https://github.com/ sheng-z/stog 2https://github.com/ sheng-z/stog 0.31
英語(論文から抽出)日本語訳スコア
Metric Smatch Unlabeled No WSD メートル法 smatch unlabeled no wsd 0.84
Reentrancies Concepts Named Ent. 復活 概念名称はEnt。 0.60
Wikification ウィキフィケーション 0.40
Negation SRL AMREager IT ES 42.1 43.2 46.6 48.5 42.2 42.5 25.7 27.2 53.3 52.3 65.7 67.7 44.5 50.6 19.8 22.3 34.3 35.9 否定 SRL AMREager IT ES 42.1 43.2 46.6 48.5 42.2 42.5 25.7 27.2 53.3 52.3 65.7 67.7 44.5 50.6 19.8 22.3 34.3 35.9 0.62
DE 39.1 45.0 39.2 18.6 44.9 63.1 49.9 18.6 29.4 DE 39.1 45.0 39.2 18.6 44.9 63.1 49.9 18.6 29.4 0.45
ZH 34.6 41.1 34.7 15.9 39.9 67.9 46.8 6.8 27.2 ZH 34.6 41.1 34.7 15.9 39.9 67.9 46.8 6.8 27.2 0.45
DE 53.0 57.7 53.2 39.9 58.0 66.0 60.9 11.7 47.9 DE 53.0 57.7 53.2 39.9 58.0 66.0 60.9 11.7 47.9 0.45
XL-AMR IT ES 58.0 58.1 63.0 63.4 58.4 58.4 46.1 46.6 65.9 64.7 66.2 70.0 63.1 67.0 23.4 29.2 54.7 55.2 XL-AMR IT ES 58.0 58.1 63.0 63.4 58.4 58.4 46.1 46.6 65.9 64.7 66.2 70.0 63.1 67.0 23.4 29.2 54.7 55.2 0.43
ZH 43.1 48.9 43.2 34.7 48.0 60.6 54.5 12.8 41.3 ZH 43.1 48.9 43.2 34.7 48.0 60.6 54.5 12.8 41.3 0.45
Ours DE 64.0 68.1 64.4 47.9 69.3 79.3 74.0 47.1 57.3 我々の DE 64.0 68.1 64.4 47.9 69.3 79.3 74.0 47.1 57.3 0.52
IT 65.4 69.6 65.9 49.3 72.1 79.5 74.9 52.6 60.1 IT 65.4 69.6 65.9 49.3 72.1 79.5 74.9 52.6 60.1 0.45
ES 67.3 71.2 67.8 51.3 75.0 80.2 73.9 55.6 62.1 ES 67.3 71.2 67.8 51.3 75.0 80.2 73.9 55.6 62.1 0.45
ZH 56.5 61.0 56.7 41.4 61.3 76.2 68.1 36.6 50.7 ZH 56.5 61.0 56.7 41.4 61.3 76.2 68.1 36.6 50.7 0.45
Table 3: Fine-grained results of different models on DE, IT, ES and ZH. 表3: DE、IT、ES、ZHの異なるモデルの詳細な結果。 0.67
Best results are in bold. 最高の結果は大胆だ。 0.76
Smatch Unlabeled No WSD smatch unlabeled no wsd 0.77
Reentrancies Concepts Named Ent. 復活 概念名称はEnt。 0.60
Wiki Negation SRL Wiki 否定 SRL 0.76
S2S F1 53.1 57.7 53.4 38.4 57.3 73.7 62.1 32.9 47.4 S2S F1 53.1 57.7 53.4 38.4 57.3 73.7 62.1 32.9 47.4 0.43
S2S + Bilingual Input F1 57.5 59.2 59.2 41.9 66.4 75.0 69.0 44.1 52.1 s2s + バイリンガル入力 f1 57.5 59.2 41.9 66.4 75.0 69.0 44.1 52.1 0.45
∆ 4.4 1.5 5.8 3.5 9.1 1.3 6.9 11.2 4.7 ∆ 4.4 1.5 5.8 3.5 9.1 1.3 6.9 11.2 4.7 0.45
S2S + Auxiliary F1 58.6 58.9 58.9 42.7 62.7 77.2 69.2 39.5 52.2 S2S + Auxiliary F1 58.6 58.9 58.9 42.7 62.7 77.2 69.2 39.5 52.2 0.47
∆ 5.5 1.2 5.5 4.3 5.4 3.5 7.1 6.6 4.8 ∆ 5.5 1.2 5.5 4.3 5.4 3.5 7.1 6.6 4.8 0.45
Full Model F1 63.3 67.5 63.7 47.5 69.4 78.8 72.7 48.0 57.6 フルモデルF1 63.3 67.5 63.7 47.5 69.4 78.8 72.7 48.0 57.6 0.44
∆ 10.2 9.8 10.3 9.1 12.1 5.1 10.6 15.1 10.2 ∆ 10.2 9.8 10.3 9.1 12.1 5.1 10.6 15.1 10.2 0.45
Table 4: Smatch and fine-grained results of ablation study. 表4: アブレーション研究のスマッチときめ細かい結果。 0.72
The listed Scores are avereage F1 score for different metrics on four test sets. リストアップされたスコアは、4つのテストセットで異なるメトリクスのF1スコアである。 0.58
∆ represents the model improvement compared with basic sequence-to-sequence (s2s) model. s2s(basic sequence-to-sequence )モデルと比較して、モデルの改善を表す。 0.58
with many different settings: language specific setting, bilingual setting and multilingual setting. 言語固有の設定、バイリンガル設定、多言語設定など、さまざまな設定がある。 0.73
Language specific setting means that they only use target language data to train the model. 言語固有の設定は、モデルをトレーニングするためにターゲット言語データのみを使用することを意味する。
訳抜け防止モード: 言語固有の設定は モデルのトレーニングには、ターゲット言語データのみを使用する。
0.86
Bilingual setting represents training with target language data and English data. バイリンガル設定は、ターゲット言語データと英語データによるトレーニングを表す。 0.76
Multilingual setting represents training with data in all languages. マルチ言語設定は、すべての言語のデータのトレーニングを表す。 0.70
They also experiment multilingual setting except Chinese data because they found training with Chinese data will lower the results. また、中国語データを使ったトレーニングで結果が下がったため、中国語データ以外の多言語設定も実験した。 0.67
• Translate-test. This method first translates target language texts into English and uses an English AMR parser to predict the final AMR graphs. •翻訳テスト。 この方法はまずターゲット言語テキストを英語に翻訳し、英語のAMRパーサを用いて最終的なAMRグラフを予測する。 0.75
For fair comparison, we choose the sequence-to-sequence model as the English AMR parser. 公平な比較のために、sequence-to-sequence model を english amr parser として選択する。 0.64
The encoder, decoder and hyperparameters of these modules are the same as those in our model. これらのモジュールのエンコーダ、デコーダ、ハイパーパラメータは、私たちのモデルと同じです。 0.79
We use only English texts as input and do not apply the auxiliary task in the training of English parser. 我々は、英語テキストのみを入力として使用し、英語パーサの訓練に補助タスクを適用しない。 0.75
Note that this baseline is not compared in (Blloshmi et al , 2020) and we show it is a very strong baseline. このベースラインが(blloshmi et al , 2020)比較されていないことに注意してください。
訳抜け防止モード: なお、この基準線は比較されていない(Blloshmi et al, 2020)。 非常に強力なベースラインを 示しています
0.71
The comparison results are shown in Table 比較結果は表に示されています 0.81
2. Our model outperforms previous best model XL-AMR in different settings by a large margin. 2. 我々のモデルは、以前の最良モデルXL-AMRよりも大きな差で異なる設定で優れている。 0.73
As for languages that share similarity with English, namely German, Italian, Spanish, our proposed model achieves substantial improvement on Smatch F1 score by about 10 points. 英語(ドイツ語,イタリア語,スペイン語)と類似性を持つ言語については,提案したモデルにより,Smatch F1のスコアが約10ポイント向上した。 0.75
When it comes to languages that has linguistic differences with English, namely Chinese, our model performs better, surpassing XL-AMR by 13.4 points on Smatch F1 score. Smatch F1スコアでXL-AMRを13.4ポイント上回り、英語、すなわち中国語との言語的差異を持つ言語では、我々のモデルはより良く機能する。 0.72
The Translate-test method is a strong baseline because of the quality of machine translation. Translate-test法は機械翻訳の品質のため,強力なベースラインである。 0.86
It outperforms previous reported results by a large margin, which reveals that English information is significantly beneficial to AMR prediction. これは、英国情報がAMR予測に有益であることを示す大きなマージンによって、以前の報告結果を上回っている。 0.62
In this work, our model also surpasses this method by 3.4 points and achieves the new state-of-the-art results. 本研究では,本手法を3.4ポイント超え,新たな最先端結果が得られた。 0.69
Table 3 lists the fine-grained evaluation results of AMREager, the best XL-AMR model and our model. 表3は、最良のXL-AMRモデルであるAMREagerの詳細な評価結果をリストアップする。 0.71
Our proposed model achieves substantially higher performance by about 10 points for each fine-grained task except Negation. 提案手法は,細粒度タスク毎にネゲーション以外の性能を約10ポイント向上させる。 0.63
As for Negation, our model achieves over 20 points higher than XLAMR. 否定に関しては,XLAMRより20点以上高い値が得られる。 0.68
These results demonstrates that our model not only predicts better concepts but also predicts これらの結果は、モデルがより良い概念を予測するだけでなく、予測することを示す。 0.59
英語(論文から抽出)日本語訳スコア
Model Full Model + XLM-R モデル 全モデル+XLM-R 0.78
+ dec + XLM-R & dec + dec + XLM-R & dec 0.85
DE 64.0 66.1 64.9 68.3 DE 64.0 66.1 64.9 68.3 0.50
IT 65.4 67.9 66.7 70.0 IT 65.4 67.9 66.7 70.0 0.50
ES 67.3 69.6 68.5 71.9 es 67.3 69.6 68.5 71.9 0.46
ZH 56.5 57.9 57.4 59.6 ZH 56.5 57.9 57.4 59.6 0.50
AVG 63.3 65.4 64.4 67.5 AVG 63.3 65.4 64.4 67.5 0.50
Table 5: Smatch scores of models employing pretrained models. 表5:事前訓練されたモデルを用いたモデルのスマッチスコア。 0.70
fectiveness of our modules. モジュールの具体性。 0.57
As Table 4 shows, F1 score for Concepts improves substantially, which demonstrates that our proposed modules can actually help the parser predict more accurate concepts. 表4が示すように、概念のF1スコアは大幅に改善され、提案したモジュールがパーサがより正確な概念を予測するのに役立つことを示す。 0.67
Besides, fine-grained evaluation Negation achieves the highest improvement, revealing that our proposed modules enable the parser to understand the semantics of the input texts better. さらに,詳細な評価ネゲーションは,提案するモジュールにより,入力テキストの意味をより深く理解することができることを明らかにした。 0.71
6.5 Effect of Pre-trained Models on 6.5 事前訓練モデルの効果 0.82
Cross-Lingual AMR Parsing Recently, pre-training models on cross-lingual tasks have been proposed. 言語間AMR解析 近年,言語間タスクの事前学習モデルが提案されている。 0.60
Pre-training models, such as mBert (Devlin et al , 2019), XLM (Conneau and Lample, 2019), XLM-R (Conneau et al , 2020b) and mBart (Liu et al , 2020) achieve stateof-the-art results on many tasks such as machine translation, cross-lingual natural language inference and so on. mBert (Devlin et al , 2019), XLM (Conneau and Lample, 2019), XLM-R (Conneau et al , 2020b) や mBart (Liu et al , 2020) といった事前トレーニングモデルは,機械翻訳や言語間自然言語推論など,多くのタスクにおいて最先端の結果を達成している。 0.89
In our experiment, we exploit XLM-R (Conneau et al , 2020b) as the input embeddings of the model. 実験では,XLM-R (Conneau et al , 2020b) をモデルの入力埋め込みとして利用した。 0.80
When training an English AMR parser, Xu et al (2020) first pre-train the model on large scale synthetic data and fine-tune it on gold English-AMR data. 英語のAMRパーサーを訓練する際、Xu et al (2020) はまず大規模な合成データでモデルを事前訓練し、金のイングリッシュ-AMRデータで微調整した。 0.67
Since cross-lingual AMR parsing shares the same output formats with AMR parsing, we can employ the decoder of (Xu et al , 2020) to initialize our decoder and further finetune the cross-lingual AMR parser. 言語間AMR解析はAMR解析と同じ出力形式であるため、デコーダ(Xu et al , 2020)のデコーダを使用してデコーダを初期化し、さらに言語間AMRパーサを微調整することができる。 0.65
Results are listed in Table 5. 結果は表5に記載されている。 0.64
The performance of our parser with XLM-R embedding improves by 2.1 points on Smatch score, while our parser finetuning pre-trained AMR decoder achieves 1.1 points improvement. XLM-R埋め込みによるパーサの性能はSmatchスコアで2.1ポイント向上し、事前訓練されたAMRデコーダでは1.1ポイント向上した。 0.67
We further employ both XLM-R embedding and pre-trained AMR decoder and the average Smatch score is 67.5. さらに、XLM-R埋め込みと事前訓練されたAMRデコーダを併用し、平均Smatchスコアは67.5である。 0.52
The results show that pre-trained cross-lingual embeddings like XLM-R as well as the pre-trained decoder can help the parser predict better AMR graphs. その結果、XLM-Rのような事前学習された言語間埋め込みや、事前学習されたデコーダは、パーサがより良いAMRグラフを予測するのに役立つことが示された。
訳抜け防止モード: 結果は -訓練された十字架 XLM - Rのような言語による埋め込みや事前訓練されたデコーダは、パーサがより良いAMRグラフを予測するのに役立つ。
0.51
Figure 3: An example of AMR predicted by models with and without auxiliary task. 図3: 補助的なタスクを持つモデルによって予測されるAMRの例。 0.75
We mark the error concepts and relations in red. エラーの概念と関係を赤で示します。 0.76
better relations between concepts. 概念間のより良い関係です 0.74
6.4 Ablation Study In order to verify the effectiveness of the bilingual input and the auxiliary task in our model, we carry out several ablation experiments. 6.4 モデルにおけるバイリンガル入力の有効性と補助課題を検証するために, いくつかのアブレーション実験を行った。 0.73
Table 4 shows the Smatch score and fine-grained results of ablation study. 表4は、Smatchスコアとアブレーション研究のきめ細かい結果を示している。 0.68
Compared with the basic sequence-to-sequence model, the bilingual input can improve the Smatch F1 score by 4.4 points on average. 基本シーケンス対シーケンスモデルと比較して、バイリンガル入力はSmatch F1スコアを平均4.4ポイント改善することができる。 0.73
The introduction of auxiliary task brings 5.5 points improvement of Smatch on average. 補助タスクの導入により、平均で5.5ポイント改善される。 0.71
Our full model makes use of both bilingual input and auxiliary task at the same time, improving Smatch scores by 10.2 points, which indicates that each module is very beneficial to the performance of our model. 本モデルではバイリンガル入力と補助タスクの両方を同時に利用し,Smatchのスコアを10.2ポイント向上させ,各モジュールがモデルの性能に非常に有益であることを示す。 0.80
Fine-grained results further demonstrate the ef- きめ細かい結果はさらに ef を実証する 0.74
( state-01 :ARG0 ( and :op1 ( person : ARG0-of ( have-org-role-91 : ARG2 ( diplomat ) ) :op2 ( person :ARG1-of ( expert-01 :ARG2 ( control-01 :ARG1 ( arm-01 ) ) ) ) :ARG1 ( hinder-01 :ARG0 ( problem :topic ( technical ) ) :ARG1 ( program :topic ( enrich-01 ) :poss ( country : name ( name : op1 " Iran " ) ) ) Ground Truth AMR( say-01 :ARG0 ( and :op1 ( person :ARG0-of ( have-org-role-91 :ARG2 ( diplomat ) ) ) :op2 ( person :ARG1-of ( expert-01 :ARG2 ( control-01 :ARG1 ( arm ) ) ) ) ) :ARG1 ( hamper-01 :ARG0 ( problem :topic ( technical ) ) :ARG1 ( program :poss ( country :name ( name : op1 " Iran " ) ) :ARG0-of ( enrich-01 : ARG1 ( uranium ) ) ) :time ( current ) ) )Full Model( say-01 :ARG0 ( person :ARG0-of ( have-org-role-91 :ARG2 ( diplomat ) ) ) :ARG1 ( hamper-01 :ARG1 ( program :ARG0-of ( enrich-01 :ARG1 ( uranium ) ) : poss ( country :name ( name :op1 " Iran " ) ) ) :ARG2 ( problem :mod ( technical ) ) :time ( current ) ) )Full Model – Auxiliary TaskEN: Diplomats and arms control experts stated that the Iranian enrichment program is hindered by technical problems.ZH: 外交人士和军备控制专家表示,伊朗的铀浓缩计划目前受到技术问题的阻碍Input Texts ( state-01 :ARG0 ( and :op1 ( person : ARG0-of ( have-org-role-91 : ARG2 ( diplomat ) ) :op2 ( person :ARG1-of ( expert-01 :ARG2 ( control-01 :ARG1 ( arm-01 ) ) ) ) :ARG1 ( hinder-01 :ARG0 ( problem :topic ( technical ) ) :ARG1 ( program :topic ( enrich-01 ) :poss ( country : name ( name : op1 " Iran " ) ) ) Ground Truth AMR( say-01 :ARG0 ( and :op1 ( person :ARG0-of ( have-org-role-91 :ARG2 ( diplomat ) ) ) :op2 ( person :ARG1-of ( expert-01 :ARG2 ( control-01 :ARG1 ( arm ) ) ) ) ) :ARG1 ( hamper-01 :ARG0 ( problem :topic ( technical ) ) :ARG1 ( program :poss ( country :name ( name : op1 " Iran " ) ) :ARG0-of ( enrich-01 : ARG1 ( uranium ) ) ) :time ( current ) ) )Full Model( say-01 :ARG0 ( person :ARG0-of ( have-org-role-91 :ARG2 ( diplomat ) ) ) :ARG1 ( hamper-01 :ARG1 ( program :ARG0-of ( enrich-01 :ARG1 ( uranium ) ) : poss ( country :name ( name :op1 " Iran " ) ) ) :ARG2 ( problem :mod ( technical ) ) :time ( current ) ) )Full Model – Auxiliary TaskEN: Diplomats and arms control experts stated that the Iranian enrichment program is hindered by technical problems.ZH: 外交人士和军备控制专家表示,伊朗的铀浓缩计划目前受到技术问题的阻碍Input Texts 0.82
英語(論文から抽出)日本語訳スコア
Figure 4: An attention heatmap from one head in the second decoder layer. 図4: 第2デコーダ層の1つのヘッドからの注意ヒートマップ。 0.78
The attention weight is higher if the color is lighter. より軽い色であれば、注意重量が高い。 0.69
changing the meaning of the original sentence. 原文の意味を変えること。 0.45
Another example in Figure 5 shows the efficacy of bilingual inputs. 図5の別の例は、バイリンガル入力の有効性を示している。 0.61
The AMR parsed by basic sequence-to-sequence model does not contain correct semantics. 基本シーケンス列モデルによって解析されたamrは正しい意味論を含まない。 0.59
This model predicts many erroneous concepts such as launch-01, possible-01. このモデルは、launch-01, possible-01のような多くの誤った概念を予測する。 0.57
Besides, the semantics of original sentence did not lose power is changed into have no electricity. また、原文の意味論は力を失うことなく、電気を持たないものに変化した。 0.64
The AMR produced by sequence-to-sequence model with bilingual input is almost correct except missing of concept silo. バイリンガル入力を用いたシーケンス・ツー・シーケンス・モデルにより生成されたAMRは、概念サイロの欠如を除いてほぼ正しい。 0.45
This example reveals that our bilingual input enables the parser to predict more accurate concepts and preserve the semantics of the sentence. この例では、バイリンガル入力により、パーサはより正確な概念を予測でき、文の意味を保存できることを示す。 0.61
We also show an attention heatmap of an example in test set in Figure 4. また、図4に示すテストセットの例の注目ヒートマップも示します。 0.76
This attention pattern shows that our parser can predict AMR tokens based on English translation (e g recommend-01) and based on both English and Spanish tokens (e g good-02). この注意パターンは、英語翻訳(eg recommend-01)と英語とスペイン語のトークン(eg good-02)に基づいてAMRトークンを予測することができることを示している。 0.74
8 Conclusion In this paper, we focus on cross-lingual AMR parsing. 8 結論 本稿では,言語間AMR解析に焦点を当てる。 0.74
Previous works have deficiency in predicting correct AMR concepts. 従来の研究は正しいAMRの概念を予測できない。 0.65
We thus introduce bilingual inputs as well as an auxiliary task to predict more accurate concepts and their relations in AMR graphs. そこで本研究では, バイリンガル入力と補助タスクを導入し, より正確な概念とその関係をamrグラフで予測する。 0.67
Empirical results on data in German, Italian, Spanish and Chinese demonstrate the efficacy of our proposed method. 提案手法の有効性を,ドイツ語,イタリア語,スペイン語,中国語のデータから実証した。 0.67
We also conduct ablation study to further verify the significance of the bilingual inputs and auxiliary task. また,バイリンガル入力と補助タスクの意義をさらに検証するために,アブレーション研究を行う。 0.73
For future work, we will attempt to adapt other methods used in English 今後の研究のために、英語で使われる他の方法に適応しようと試みる 0.70
Figure 5: An example of AMR predicted by S2S and S2S + Bilingual Input. 図5: S2S と S2S + バイリンガル入力によって予測される AMR の例。 0.70
We mark the missing concept in blue and mark the inaccurate concepts in red. 欠落した概念を青で示し、不正確な概念を赤で示します。 0.70
7 Analysis Figure 3 shows several AMRs parsed by models with and without auxiliary task. 7 分析図 3 は、補助作業の有無に関わらず、モデルによって解析された複数の amr を示す。 0.54
The AMR predicted by model without auxiliary task misses many concepts, while our full model predicts them correctly. 補助課題のないモデルで予測されるAMRは多くの概念を見逃し、我々の完全なモデルはそれらを正確に予測する。 0.63
What’s more, our full model can predict relations of concepts more accurately as well. さらに、私たちの完全なモデルでは、概念の関係もより正確に予測できます。 0.81
For example, the full model adds ARG0 between hamper01 and problem, retaining semantic information of the original sentence. 例えば、フルモデルは hamper01 と problem の間に ARG0 を追加し、元の文の意味情報を保持する。 0.73
The model trained without auxiliary task predicts the relation ARG2 instead, 補助タスクなしで訓練されたモデルは、代わりにARG2の関係を予測する。 0.48
<s>_debería_ser_mucho_mejor._p </s>_it_should_be_much_b etter_.</s>(recommen@@d-01:ARG1 (good@@-02:ARG1(itEn coderDecoder( lose-02 : polarity - : ARG0 ( silo : mod ( missile : mod ( nucleus ) ) ) : ARG1 ( power ) )Ground Truth AMR( lose-02 : polarity - : ARG0 ( missile : mod ( nucleus ) ) : ARG1 ( power ) )S2S + Bilingual Input( have-03 : polarity - : ARG0 ( missile : mod ( nucleus ) : ARG1-of ( launch-01 : ARG1-of ( possible-01 ) ) ) : ARG1 ( electricity ) )S2SEN:The nuclear missile silos themselves did not lose power.ZH: (cid:7790)(cid:4658) (cid:5487)(cid:2567) (cid:4666)(cid:1227) (cid:7522)(cid:17633 )(cid:5292)(cid:8919 )(cid:7487)(cid:7139 )(cid:11115)(cid:574 )Input Texts <s>_debería_ser_mucho_mejor._p </s>_it_should_be_much_b etter_.</s>(recommen@@d-01:ARG1 (good@@-02:ARG1(itEn coderDecoder( lose-02 : polarity - : ARG0 ( silo : mod ( missile : mod ( nucleus ) ) ) : ARG1 ( power ) )Ground Truth AMR( lose-02 : polarity - : ARG0 ( missile : mod ( nucleus ) ) : ARG1 ( power ) )S2S + Bilingual Input( have-03 : polarity - : ARG0 ( missile : mod ( nucleus ) : ARG1-of ( launch-01 : ARG1-of ( possible-01 ) ) ) : ARG1 ( electricity ) )S2SEN:The nuclear missile silos themselves did not lose power.ZH: (cid:7790)(cid:4658) (cid:5487)(cid:2567) (cid:4666)(cid:1227) (cid:7522)(cid:17633 )(cid:5292)(cid:8919 )(cid:7487)(cid:7139 )(cid:11115)(cid:574 )Input Texts 0.81
英語(論文から抽出)日本語訳スコア
AMR parsing to cross-lingual AMR parsing, such as pre-training and self-training. AMR解析は、事前訓練や自己学習のような言語間AMR解析に応用される。 0.51
Acknowledgments This work was supported by National Natural Science Foundation of China (61772036), Beijing Academy of Artificial Intelligence (BAAI) and Key Laboratory of Science, Technology and Standard in Press Industry (Key Laboratory of Intelligent Press Media Technology). 承認 この研究は、中国国立自然科学財団(61772036)、北京人工知能アカデミー(baai)、報道産業における科学、技術、標準のキーラボ(intelligent press media technologyのキーラボ)によって支援された。 0.61
We appreciate the anonymous reviewers for their helpful comments. 匿名のレビュワーのコメントに感謝します。 0.43
Xiaojun Wan is the corresponding author. Xiaojun Wanが対応する著者です。 0.73
References Laura Banarescu, Claire Bonial, Shu Cai, Madalina Georgescu, Kira Griffitt, Ulf Hermjakob, Kevin Knight, Philipp Koehn, Martha Palmer, and Nathan Schneider. 参照: Laura Banarescu, Claire Bonial, Shu Cai, Madalina Georgescu, Kira Griffitt, Ulf Hermjakob, Kevin Knight, Philipp Koehn, Martha Palmer, Nathan Schneider。 0.80
2013. Abstract meaning representation for sembanking. 2013. Sembankingの抽象的な意味表現。 0.78
In Proceedings of the 7th linguistic annotation workshop and interoperability with discourse, pages 178–186. 第7回言語アノテーションワークショップおよび談話との相互運用に関する議事録178-186頁。 0.71
Rexhina Blloshmi, Rocco Tripodi, and Roberto Navigli. Rexhina Blloshmi、Rocco Tripodi、Roberto Navigli。 0.64
2020. Enabling cross-lingual amr parsing with transfer learning techniques. 2020. トランスファー学習による言語横断型amr解析の実現 0.73
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 2487–2500. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), page 2487–2500。 0.83
Deng Cai and Wai Lam. Deng Cai と Wai Lam の略。 0.75
2020. AMR parsing via graphsequence iterative inference. 2020. グラフ列反復推論によるAMR解析 0.75
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 1290–1301, Online. 58th Annual Meeting of the Association for Computational Linguistics, page 1290–1301, Online 0.67
Association for Computational Linguistics. Shu Cai and Kevin Knight. 計算言語学会会員。 シュ・ケイとケビン・ナイト 0.54
2013. Smatch: an evaluation metric for semantic feature structures. 2013. smatch: 意味的特徴構造の評価指標。 0.78
In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 748–752. 第51回計算言語学会年次大会(第2部:短文)において,748-752頁。 0.56
Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzm´an, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzm ́an, Edouard Grave, Myle Ott, Luke Zettlemoyer, Veselin Stoyanov 0.80
2020a. Unsupervised cross-lingual representation learning at scale. 2020a 教師なし言語間表現学習の大規模化 0.63
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 8440– 8451, Online. The 58th Annual Meeting of the Association for Computational Linguistics, page 8440–8451, Online. 0.78
Association for Computational Linguistics. Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzm´an, ´Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. 計算言語学会会員。 Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzm ́an, ́Edouard Grave, Myle Ott, Luke Zettlemoyer, Veselin Stoyanov 0.67
2020b. Unsupervised cross-lingual representation learning at scale. 2020年。 教師なし言語間表現学習の大規模化 0.60
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 8440– 8451. 58th Annual Meeting of the Association for Computational Linguistics』8440-8451頁。 0.64
Alexis Conneau and Guillaume Lample. Alexis ConneauとGuillaume Lample。 0.71
2019. CrossIn Advances lingual language model pretraining. 2019. CrossIn Advances 言語モデルの事前トレーニング。 0.84
in Neural Information Processing Systems, pages 7059–7069. 神経情報処理システムでは7059-7069頁。 0.73
Marco Damonte and Shay B Cohen. マルコ・ダモンテと シェイ・b・コーエン 0.49
2018. Crosslingual abstract meaning representation parsing. 2018. 言語間抽象的意味表現のパース。 0.74
In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pages 1146–1155. the association for computational linguistics: human language technologies, volume 1 (long papers), pages 1146–1155. 2018 conference of the north american chapter of the association for computational linguistics: human language technologies, volume 1 (long papers), pp. 1146–1155。 0.61
Marco Damonte, Shay B Cohen, and Giorgio Satta. Marco Damonte, Shay B Cohen, Giorgio Satta 0.64
2017. An incremental parser for abstract meaning In Proceedings of the 15th Conferrepresentation . 2017. 第15回conferrepresentation の手続きにおける抽象的意味のインクリメンタルなパーサ。 0.78
ence of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 536–546. The European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, page 536–546。 0.81
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova 0.76
2019. Bert: Pre-training of deep bidirectional transformers for language understanding. 2019. Bert: 言語理解のための双方向トランスフォーマーの事前トレーニング。 0.82
In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171–4186. The 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 4171–4186。 0.78
Jeffrey Flanigan, Sam Thomson, Jaime G Carbonell, Chris Dyer, and Noah A Smith. Jeffrey Flanigan、Sam Thomson、Jaime G Carbonell、Chris Dyer、Noah A Smith。 0.72
2014. A discriminative graph-based parser for the abstract meaning representation. 2014. 抽象的意味表現のための識別グラフベースパーサ。 0.81
In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1426– 1436. 第52回計算言語学会年次大会(Volume 1: Long Papers)において、1426-1436頁。 0.60
Donglai Ge, Junhui Li, Muhua Zhu, and Shoushan Li. Donglai Ge, Junhui Li, Muhua Zhu, Shoushan Li 0.63
2019. Modeling source syntax and semantics for neural amr parsing. 2019. ニューラルamr解析のためのソース構文とセマンティクスのモデリング 0.79
In IJCAI, pages 4975–4981. IJCAI』4975-4981頁。 0.66
Zhijiang Guo and Wei Lu. Zhijiang GuoとWei Lu。 0.74
2018. Better transitionbased amr parsing with a refined search space. 2018. 改良された検索スペースによる遷移ベースのアマー解析の改善。 0.66
In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 1712–1722. 2018年のProceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, page 1712–1722。 0.78
Jan Hajic, Ondˇrej Bojar, and Zdenka Uresova. ヤン・ハジック(Jan Hajic)、オンデレー・ボジャル(Ond'rej Bojar)、ズデンカ・ウレソワ(Zdenka Uresova)。 0.38
2014. Comparing czech and english amrs. 2014. czech と English amrs を比較します。 0.78
In Proceedings of Workshop on Lexical and Grammatical Resources for Language Processing, pages 55–64. Proceedings of Workshop on Lexical and Grammatical Resources for Language Processing, page 55–64。 0.85
Fuad Issa, Marco Damonte, Shay B Cohen, Xiaohui Yan, and Yi Chang. Fuad Issa、Marco Damonte、Shay B Cohen、Xiaohui Yan、Yi Chang。 0.68
2018. Abstract meaning representation for paraphrase detection. 2018. パラフレーズ検出のための抽象的意味表現 0.83
In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pages 442–452. the association for computational linguistics: human language technologies, volume 1 (long papers, pages 442–452) 2018年北アメリカ支部の議事録。 0.69
Melvin Johnson, Mike Schuster, Quoc V Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Vi´egas, Martin Wattenberg, Greg Corrado, et al 2017. Melvin Johnson, Mike Schuster, Quoc V Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Vi ́egas, Martin Wattenberg, Greg Corrado, et al 2017 0.86
Google’s multilingual neural machine translation system: Enabling zero-shot translation. Googleの多言語ニューラルマシン翻訳システム:ゼロショット翻訳の実現。 0.84
Transactions of the Association for Computational Linguistics, 5:339–351. 計算言語学会(Association for Computational Linguistics) 5:339–351。 0.64
英語(論文から抽出)日本語訳スコア
Diederik P. Kingma and Jimmy Ba. dieerik p. kingmaとjimmy ba。 0.75
2015. Adam: A In 3rd Intermethod for stochastic optimization. 2015. adam: 確率最適化のための第3のインターメソッド。 0.75
national Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings. national conference on learning representations, iclr 2015, san diego, ca, usa, may 7-9, 2015 conference track proceedings (英語) 0.83
Ioannis Konstas, Srinivasan Iyer, Mark Yatskar, Yejin Choi, and Luke Zettlemoyer. Ioannis Konstas、Srinivasan Iyer、Mark Yatskar、Yejin Choi、Luke Zettlemoyer。 0.70
2017. Neural amr: Sequence-to-sequence models for parsing and generation. 2017. Neural amr: 解析と生成のためのシーケンス対シーケンスモデル。 0.79
In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 146–157. 第55回計算言語学会年次総会(第1巻:長い論文)では146–157頁。 0.53
Young-Suk Lee, Ram´on Fernandez Astudillo, Tahira Naseem, Revanth Gangi Reddy, Radu Florian, and Salim Roukos. Young-Suk Lee, Ram ́on Fernandez Astudillo, Tahira Naseem, Revanth Gangi Reddy, Radu Florian, Salim Roukos 0.87
2020. Pushing the limits of amr parsing with self-learning. 2020. 自己学習によるamr解析の限界を押し上げる。 0.76
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings, pages 3208–3214. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings, pages 3208–3214 0.84
Kexin Liao, Logan Lebanoff, and Fei Liu. Kexin Liao、Logan Lebanoff、Fei Liu。 0.65
2018. Abstract meaning representation for multi-document In Proceedings of the 27th Intersummarization. 2018. 多文書の抽象的意味表現 第27回中間化の証明 0.80
national Conference on Computational Linguistics, pages 1178–1190. National Conference on Computational Linguistics, page 1178–1190. 0.97
Fei Liu, Jeffrey Flanigan, Sam Thomson, Norman Sadeh, and Noah A Smith. Fei Liu、Jeffrey Flanigan、Sam Thomson、Norman Sadeh、Noah A Smith。 0.67
2015. Toward abstractive summarization using semantic representations. 2015. 意味表現を用いた抽象要約に向けて 0.74
In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 1077–1086. the association for computational linguistics: human language technologies, pp1077-1086 北アメリカ支部の2015年会議の議事録。 0.70
Yijia Liu, Wanxiang Che, Bo Zheng, Bing Qin, and Ting Liu. Yijia Liu, Wanxiang Che, Bo Zheng, Bing Qin, Ting Liu 0.65
2018. An amr aligner tuned by transitionbased parser. 2018. トランジションベースのパーサーによって調整されたアマーコンディショナー。 0.59
In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 2422–2430. 2018 Conference on Empirical Methods in Natural Language Processing, page 2422–2430 (英語) 0.72
Rico Sennrich, Barry Haddow, and Alexandra Birch. Rico Sennrich、Barry Haddow、Alexandra Birch。 0.64
2016. Neural machine translation of rare words with subword units. 2016. サブワード単位を用いたレアワードのニューラルマシン翻訳 0.79
In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1715– 1725. 第54回計算言語学会年次大会(Volume 1: Long Papers)において、1715-1725頁。 0.58
Linfeng Song, Daniel Gildea, Yue Zhang, Zhiguo Wang, and Jinsong Su. Linfeng Song, Daniel Gildea, Yue Zhang, Zhiguo Wang, Jinsong Su 0.68
2019. Semantic neural machine translation using amr. 2019. amrを用いた意味的ニューラルマシン翻訳 0.81
Transactions of the Association for Computational Linguistics, 7:19–31. 計算言語学会(Association for Computational Linguistics) 7:19-31。 0.63
J¨org Tiedemann and Santhosh Thottingal. J'org TiedemannとSanthosh Thottingal。 0.81
2020. Opusmt–building open translation services for the world. 2020. Opusmt - 世界向けのオープン翻訳サービスの構築。 0.80
In Proceedings of the 22nd Annual Conference of the European Association for Machine Translation, pages 479–480. 第22回ヨーロッパ機械翻訳協会年次総会では、479-480頁。 0.59
Lucy Vanderwende, Arul Menezes, and Chris Quirk. Lucy Vanderwende、Arul Menezes、Chris Quirk。 0.71
2015. An amr parser for english, french, german, spanish and japanese and a new amr-annotated corpus. 2015. 英語、フランス語、ドイツ語、スペイン語、日本語のamrパーサーと、新しいamrアノテーション付きコーパス。
訳抜け防止モード: 2015. 英語,フランス語,ドイツ語,スペイン語,日本語のamrパーサー 新しいamr - annotated corpus。
0.77
In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, pages 26– 30. 2015年、米国計算言語学会(association for computational linguistics: demonstrations, 26–30ページ)の北米支部が開催された。 0.73
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N Gomez、Sukasz Kaiser、Illia Polosukhin。 0.63
2017. Attention is all In Advances in neural information proyou need. 2017. 注意はすべて、必要なニューラルネットワークの進歩にある。 0.74
cessing systems, pages 5998–6008. システム停止、5998-6008頁。 0.48
Chuan Wang, Nianwen Xue, and Sameer Pradhan. チャン・ワン(Chuan Wang)、ニアンウェン・クエ(Nianwen Xue)、サマー・プラダーン(Sameer Pradhan)。 0.34
2015a. Boosting transition-based amr parsing with refined actions and auxiliary analyzers. 2015年。 洗練されたアクションと補助アナライザによる遷移ベースアマー解析の強化。 0.66
In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pages 857–862. 第53回計算言語学会年次大会および第7回自然言語処理国際合同会議(第2巻:短い論文)の議事録において、857-862頁。 0.71
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, Luke Zettlemoyer 0.72
2020. Multilingual denoising pre-training for neural machine translation. 2020. ニューラルマシン翻訳のためのマルチリンガルdenoising pre-training 0.75
Transactions of the Association for Computational Linguistics, 8:726–742. 計算言語学会のトランザクション 8:726–742。 0.61
Chuan Wang, Nianwen Xue, and Sameer Pradhan. チャン・ワン(Chuan Wang)、ニアンウェン・クエ(Nianwen Xue)、サマー・プラダーン(Sameer Pradhan)。 0.34
2015b. A transition-based algorithm for amr parsing. 2015年。 アムラ解析のための遷移型アルゴリズム 0.64
In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 366–375. The Association for Computational Linguistics: Human Language Technologies, page 366–375. 2015年北米支部の成果。 0.66
Chunchuan Lyu and Ivan Titov. チュチュアン・リューとイワン・チトフ。 0.41
2018. Amr parsing as graph prediction with latent alignment. 2018. 遅延アライメントによるグラフ予測としてのAmrパーシング 0.69
In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 397–407. 第56回計算言語学会年次総会(第1巻:長い論文)では、397-407頁。 0.52
Tahira Naseem, Abhishek Shah, Hui Wan, Radu Florian, Salim Roukos, and Miguel Ballesteros. Tahira Naseem, Abhishek Shah, Hui Wan, Radu Florian, Salim Roukos, Miguel Ballesteros 0.69
2019. Rewarding smatch: Transition-based amr parsing with reinforcement learning. 2019. Rewarding smatch: 強化学習による遷移型アマー解析 0.79
In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4586–4592. 第57回計算言語学会年次大会紀要4586-4592頁。
訳抜け防止モード: 第57回計算言語学会年次大会を終えて 4586-4592頁。
0.49
Dongqin Xu, Junhui Li, Muhua Zhu, Min Zhang, and Guodong Zhou. Dongqin Xu, Junhui Li, Muhua Zhu, Min Zhang, Guodong Zhou 0.68
2020. Improving amr parsing with sequence-to-sequence pre-training. 2020. sequence-to-sequence pre-trainingによるamr解析の改善 0.69
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 2501–2511. 自然言語処理における経験的手法に関する2020年会議(emnlp)の議事録では、2501-2511ページが挙げられている。
訳抜け防止モード: 自然言語処理における経験的手法に関する2020年会議(EMNLP)の開催報告 2501-2511頁。
0.76
Nianwen Xue, Ondrej Bojar, Jan Hajic, Martha Palmer, Zdenka Uresova, and Xiuhong Zhang. Nianwen Xue, Ondrej Bojar, Jan Hajic, Martha Palmer, Zdenka Uresova, Xiuhong Zhang 0.67
2014. Not an interlingua, but close: Comparison of english amrs to chinese and czech. 2014. 英語のamrsと中国語とczechの比較。 0.63
In LREC, volume 14, pages 1765–1772. LREC第14巻1765-1772頁。 0.53
Reykjavik, Iceland. アイスランドのReykjavik出身。 0.68
Rik van Noord and Johan Bos. Rik van NoordとJohan Bos。 0.72
2017. Neural semantic parsing by character-based translation: Experiments with abstract meaning representations. 2017. 文字ベース翻訳によるニューラルセマンティックパーシング:抽象的意味表現を用いた実験 0.83
Computational Linguistics in the Netherlands Journal, 7:93– 108. オランダ学術誌 7:93–108 における計算言語学。 0.68
Sheng Zhang, Xutai Ma, Kevin Duh, and Benjamin Van Durme. Sheng Zhang、Xutai Ma、Kevin Duh、Benjamin Van Durme。 0.64
2019a. Amr parsing as sequence-tograph transduction. 2019年。 シーケンスタグラフ変換としてのAmr解析 0.55
In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 80–94. 第57回計算言語学会年次総会で80-94頁。
訳抜け防止モード: 第57回計算言語学会年次大会を終えて 80-94頁。
0.50
英語(論文から抽出)日本語訳スコア
Sheng Zhang, Xutai Ma, Kevin Duh, and BenBroad-coverage searXiv preprint sheng zhang, xutai ma, kevin duh, and benbroad-coverage searxivプレプリント 0.76
jamin Van Durme. ジャミン・ヴァン・ダーム。 0.23
2019b. mantic parsing as transduction. 2019年。 マンティック・パーシングを トランスダクションとして 0.53
arXiv:1909.02607. arXiv:1909.02607。 0.49
                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。