論文の概要、ライセンス

# (参考訳) 意味グラフ解析のための構成構造学習 [全文訳有]

Learning compositional structures for semantic graph parsing ( http://arxiv.org/abs/2106.04398v1 )

ライセンス: CC BY 4.0
Jonas Groschwitz, Meaghan Fowlie and Alexander Koller(参考訳) AM依存性解析(AMDependency parsing)は、合成の原理を利用する神経意味グラフ解析の手法である。 am依存パーサは複数のグラフバンクで高速かつ正確であることが示されているが、トレーニングには構成木構造の明示的なアノテーションが必要である。 過去には、これらは専門家によって書かれた複雑なグラフバンク特有のヒューリスティックを用いて得られた。 ここでは、ニューラルネットワークの潜在変数モデルを用いてグラフを直接トレーニングし、手動ヒューリスティックスの量と複雑さを大幅に削減する方法について説明する。 我々は,本モデルが言語的現象を独自に捉え,教師付きトレーニングに匹敵する精度を実現し,新たなsembanksに対するam依存性解析の利用を大いに促進できることを実証する。

AM dependency parsing is a method for neural semantic graph parsing that exploits the principle of compositionality. While AM dependency parsers have been shown to be fast and accurate across several graphbanks, they require explicit annotations of the compositional tree structures for training. In the past, these were obtained using complex graphbank-specific heuristics written by experts. Here we show how they can instead be trained directly on the graphs with a neural latent-variable model, drastically reducing the amount and complexity of manual heuristics. We demonstrate that our model picks up on several linguistic phenomena on its own and achieves comparable accuracy to supervised training, greatly facilitating the use of AM dependency parsing for new sembanks.
公開日: Tue, 8 Jun 2021 14:20:07 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Learning compositional structures for semantic graph parsing 意味グラフ解析のための構成構造学習 0.75
Jonas Groschwitz Saarland University Joas Groschwitz Saarland大学 0.70
jonasg@coli.uni-saar land.de jonasg@coli.uni-saar land.de 0.47
Meaghan Fowlie Utrecht University m.fowlie@uu.nl Meaghan Fowlie Utrecht University m.fowlie@uu.nl 0.78
Alexander Koller Saarland University Alexander Koller Saarland 大学 0.83
koller@coli.uni-saar land.de koller@coli.uni-saar land.de 0.47
Abstract AM dependency parsing is a method for neural semantic graph parsing that exploits the principle of compositionality. 概要 AM依存性解析(AMDependency parsing)は、合成の原理を利用する神経意味グラフ解析の手法である。 0.52
While AM dependency parsers have been shown to be fast and accurate across several graphbanks, they require explicit annotations of the compositional tree structures for training. am依存パーサは複数のグラフバンクで高速かつ正確であることが示されているが、トレーニングには構成木構造の明示的なアノテーションが必要である。 0.66
In the past, these were obtained using complex graphbankspecific heuristics written by experts. 過去には、これらは専門家によって書かれた複雑なグラフバンク特有のヒューリスティックを用いて得られた。 0.48
Here we show how they can instead be trained directly on the graphs with a neural latent-variable model, drastically reducing the amount and complexity of manual heuristics. ここでは、ニューラルネットワークの潜在変数モデルを用いてグラフを直接トレーニングし、手動ヒューリスティックスの量と複雑さを大幅に削減する方法について説明する。 0.70
We demonstrate that our model picks up on several linguistic phenomena on its own and achieves comparable accuracy to supervised training, greatly facilitating the use of AM dependency parsing for new sembanks. 我々は,本モデルが言語的現象を独自に捉え,教師付きトレーニングに匹敵する精度を実現し,新たなsembanksに対するam依存性解析の利用を大いに促進できることを実証する。 0.70
1 Introduction It is generally accepted in linguistic semantics that meaning is compositional, i.e. 1 はじめに 一般的には、意味が構成的であるという言語意味論において受け入れられる。 0.64
that the meaning representation for a sentence can be computed by evaluating a tree bottom-up. 木のボトムアップを評価することにより、文の意味表現を計算できる。 0.71
A compositional parsing model not only reflects this insight, but has practical advantages such as in compositional generalisation (e g Herzig and Berant 2020), i.e. 構成解析モデルは、この洞察を反映するだけでなく、構成一般化(eg Herzig と Berant 2020)のような実践的な優位性を持つ。 0.69
systematically generalizing from limited data. 限られたデータから体系的に一般化します 0.49
However, in developing a compositional semantic parser, one faces the task of figuring out what exactly the compositional structures – i.e. しかし、構成意味解析器の開発において、構成構造を正確に把握する作業に直面している。 0.58
the trees that link the sentence and the meaning representation – should look like. 文と意味表現をリンクする木は、こう見えるべきです。 0.54
This is challenging even for expert linguists; for instance, (Copestake et al , 2001) report that 90% of the development time of the English Resource Grammar (Copestake and Flickinger, 2000) went into the development of the syntax-semantics interface. 例えば (copestake et al , 2001) は、英語資源文法(copestake and flickinger, 2000)の開発時間の90%が構文・概念インターフェイスの開発に費やされたと報告している。
訳抜け防止モード: これは専門家言語学者にとっても難しい 例えば、 (Copestake et al, 2001 ) は、英語リソース文法 (Copestake and Flickinger, 2000 ) の開発時間の90%が構文、セマンティックスインターフェースの開発に費やされていると報告している。
0.72
Compositional semantic parsers which are learned from data face an analogous problem: to データから学習した合成意味解析器は類似の問題に直面している。 0.54
train a such a parser, the compositional structures must be made explicit. そのようなパーサーを訓練するには 構成構造を明示しなければなりません 0.53
However, these structures are not annotated in most sembanks. しかし、これらの構造はほとんどのセムバンクでは注釈付けされていない。 0.43
For instance, the AM (Apply-Modify) dependency parser of Groschwitz et al (2018) uses a neural model to predict AM dependency trees, compositional structures that evaluate to semantic graphs. 例えば、Groschwitz et al (2018) の AM (Apply-Modify) 依存パーサは、意味グラフを評価する構成構造である AM 依存ツリーを予測するニューラルネットワークを使用している。 0.60
Their parser achieves high accuracy (Lindemann et al , 2019) and parsing speed (Lindemann et al , 2020) across a variety of English semantic graphbanks. 彼らのパーサーは高い精度 (Lindemann et al , 2019) とパーシング速度 (Lindemann et al , 2020) を様々な英語意味グラフバンクで達成している。 0.78
To obtain an AM dependency tree for each graph in the corpus, they use hand-written graphbank-specific heuristics. コーパスの各グラフに対するAM依存ツリーを得るには、手書きのグラフバンク固有のヒューリスティックを使用する。 0.70
These heuristics cost significant time and expert knowledge to create, limiting the ability of the AM parser to scale to new sembanks. これらのヒューリスティックスは作成にかなりの時間と専門家の知識を必要とし、AMパーサーが新しいセムバンクにスケールする能力を制限する。 0.51
In this paper, we drastically reduce the need for hand-written heuristics for training the AM dependency parser. 本稿では,AM依存性解析器をトレーニングするための手書きヒューリスティックスの必要性を大幅に低減する。 0.69
We first present a graphbankindependent method to compactly represent the relevant compositional structures of a graph in a tree automaton. まず,木オートマトンにおけるグラフの構成構造をコンパクトに表現するグラフバンク非依存手法を提案する。 0.80
We then train a neural AM dependency parser directly on these tree automata. 次に、これらのツリーオートマトンに直接、neural am依存性パーサをトレーニングします。 0.54
Our code is available at github.com/coli-saar /am-parser. 私たちのコードはgithub.com/coli-saar /am-parserで入手できる。 0.38
We evaluate the consistency and usefulness of the learned compositional structures in two ways. 学習された構成構造の一貫性と有用性を2つの方法で評価した。 0.64
We first evaluate the accuracy of the trained AM dependency parsers, across four graphbanks, and find that it is on par with an AM dependency parser that was trained on the hand-designed compositional structures of Lindemann et al (2019). まず,4つのグラフバンクにまたがるAM依存性解析器の精度を評価し,Lindemann et al (2019)の手で設計した構成構造に基づいてトレーニングしたAM依存性解析器と同等であることを確認した。 0.75
We then analyze the compositional structures which our algorithm produced, and find that they are linguistically consistent and meaningful. 次に,アルゴリズムが生成する構成構造を分析し,言語学的に一貫性があり有意義であることを示す。 0.68
We expect that our methods will facilitate the design of compositional models of semantics in the future. 将来,本手法が意味論の合成モデルの設計を促進することを期待する。 0.64
2 Related work Compositional semantic graph parsers other than AM dependency parsers, like Artzi et al (2015), 2関連作品 artzi et al (2015) のような am 依存構文解析以外の合成意味グラフパーサ 0.69
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] L C . s c [ 8 ]LC。 sc [ 0.60
1 v 8 9 3 4 0 1 v 8 9 3 4 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
英語(論文から抽出)日本語訳スコア
G-fairy MODS G-begin G‐fairy MODS G-begin 0.64
APPO G-glow APPO G‐glow 0.72
G-fairy:[ ] g-fairy:[ ] 0.93
MODS G-begin:[S, O[S]] MODS G-begin:[S, O[S] 0.84
APPO G-glow:[S] APPO G-glow:[S] 0.97
(c) AMR The fairy that begins to (c)AMR 妖精 それが始まります 0.60
glow (a) AM dep-tree with word alignments. 輝く (a)単語アライメントのあるAMデップツリー。 0.69
The dashed lines connect tokens to their graph constants, and arrows point from heads to arguments, labeled by the operation that puts the graphs together. 破線はトークンとグラフ定数を結び、矢印は頭から引数に向けられ、グラフを結合する操作によってラベル付けされる。 0.76
(b) AM dep-tree without alignments. (b)アライメントのないAMデップツリー。 0.76
Nodes are labeled with graph constants, paired with their types for ease of presentation. ノードはグラフ定数でラベル付けされ、プレゼンテーションの容易なタイプと組み合わせられる。 0.75
(d) Partial result: begins to glow (d)部分的な結果:輝き始める 0.82
Figure 1: AM dep-trees and graphs for the fairy that begins to glow. 図1: a dep-trees and graphs for the fairy that begins into glow. 0.91
We usually write our example AM dep-trees without alignments as in (b). 通常、例を (b) のようにアライメントなしで dep-trees と書く。 0.74
We include node names where helpful, as in (c), where e g b is labeled begin. c)のように役に立つノード名が含まれており、eg b がラベル付けされる。 0.61
G-fairy G-begin G‐fairy Gbegin 0.65
G-elf G-glow G-charm G‐elf G G‐charm 0.60
G-charmP Figure 2: Graph constants G‐charmP 図2:グラフ定数 0.66
Peng et al (2015) and Chen et al (2018), use CCG and HRG based grammars to parse AMR and EDS (Flickinger et al , 2017). Peng et al (2015) と Chen et al (2018) は CCG と HRG ベースの文法を使って AMR と EDS を解析している (Flickinger et al , 2017)。 0.89
They use a combination of heuristics, hand-annotated compositional structures and sampling to obtain training data for their parsers, in contrast to our joint neural technique. 彼らはヒューリスティックス、手書きの合成構造、サンプリングを組み合わせて、我々のジョイントニューラルテクニックとは対照的に、パーサーのトレーニングデータを取得する。
訳抜け防止モード: 彼らはヒューリスティックと手書きの注釈付き構成構造の組み合わせを使用する サンプルを採取して パーサーのトレーニングデータを取得します 関節神経技術とは対照的に
0.73
None of these approaches use slot names that carry meaning; to the best of our knowledge this work is the first to learn them from data. これらのアプローチはいずれも意味を持つスロット名を使用しません。私たちの知る限り、この作業はデータから最初に学習するものです。 0.76
Fancellu et al (2019) use DAG grammars for compositional parsing of Discourse Representation Structures (DRS). Fancellu et al (2019) は、DAG文法を言論表現構造(DRS)の合成解析に用いている。 0.62
Their algorithm for extracting the compositional structure of a graph is deterministic and graphbank-independen t, but comes at a cost: for example, rules for heads require different versions depending on how often the head is modified, reducing the reusability of the rule. グラフの構成構造を抽出するアルゴリズムは決定論的であり、グラフバンクに依存しないが、コストがかかる:例えば、ヘッドのルールは、ヘッドの修正頻度によって異なるバージョンを必要とするため、ルールの再利用性が低下する。 0.75
Maillard et al (2019) and Havrylov et al (2019) learn compositional, continuous-space neural sentence encodings using latent tree structures. Maillard et al (2019) と Havrylov et al (2019) は、潜木構造を用いて構成的で連続的な神経文の符号化を学ぶ。 0.70
Their tasks are different: they learn to predict continousspace embeddings; we learn to predict symbolic compositional structures. 彼らは連続空間の埋め込みを予測することを学び、私たちはシンボリックな構成構造を予測することを学ぶ。
訳抜け防止モード: 彼らの仕事は違う 連続空間の埋め込みを予測することを学び 記号的構成構造を予測することを学ぶ。
0.68
Similar observations hold for self-attention (Vaswani et al , 2017; Kitaev and Klein, 2018). 同様の観察は自己注意を保っている(Vaswani et al , 2017; Kitaev and Klein, 2018)。 0.83
3 AM dependency parsing 3 AM 依存性解析 0.71
Compositional semantic graph parsing methods do not predict a graph directly, but rather predict a compositional structure which in turn determines the graph. 合成意味グラフ解析法は、グラフを直接予測するのではなく、そのグラフを決定する合成構造を予測する。 0.77
Groschwitz et al (2018) represent the compositional structure of a graph with AM dependency trees (AM dep-trees for short) like the one in Fig 1a. Groschwitz et al (2018) は、図 1a のグラフのように AM 依存木 (略して AM dep-trees) を持つグラフの構成構造を表す。 0.82
It describes the way the meanings of the words – the graph fragments in Fig 2 – combine to form the semantic graph in Fig 1c, here an AMR これは、図2のグラフフラグメントという単語の意味が結合して、図1cのセマンティックグラフを形成する方法を記述します。 0.72
(Banarescu et al , 2013). (Banarescu et al , 2013)。 0.78
The AM dep-tree edges are labeled with graph-combining operations, taken from the Apply-Modify (AM) algebra (Groschwitz et al , 2017; Groschwitz, 2019). AM dep-tree edge は、Apply-Modify (AM) 代数 (Groschwitz et al , 2017; Groschwitz, 2019) から取られたグラフ合成演算でラベル付けされている。 0.76
Graphs are built out of fragments called graph constants (Fig. グラフはグラフ定数 (Fig) と呼ばれるフラグメントで構築される。 0.77
2). Each graph constant has a root, marked with a rectangular outline, and may have special node markers called sources (Courcelle and Engelfriet, 2012), drawn in red, which mark the empty slots where other graphs will be inserted. 2). 各グラフ定数はルートを持ち、長方形アウトラインがマークされ、ソースと呼ばれる特別なノードマーカー(courcelle and engelfriet, 2012)が赤で描画され、他のグラフが挿入される空のスロットがマークされる。 0.84
In Fig 1a, the APPO operation plugs the root of G-glow into the O source of G-begin. 図1aでは、APPO操作はG-glowの根をG-beginのO源に差し込む。 0.67
Because G-begin and G-glow both have an S-source, APPO merges these nodes, creating a reentrancy, i.e. G-begin と G-glow はどちらも S-source を持つため、APPO はこれらのノードをマージし、再帰性(reentrancy)を生成する。 0.54
an undirected cycle, and yielding Fig 1d, which is in turn attached at S to the root of G-fairy by MODS. 非向サイクルで、s で g-fairy の根に mods でアタッチされた fig 1d が生成される。 0.60
APP fills a source of a head with an argument while MOD uses a source of a modifier to connect it to a head; both operations keep the root of the head. APPは引数でヘッドのソースを埋めるが、MODは修飾子のソースを使ってヘッドに接続する。
訳抜け防止モード: APPは引数でヘッドのソースを埋める MODは変調器のソースを使用してそれをヘッドに接続する どちらの操作も頭部の根を保っている。
0.80
Types The [S] annotation at the O-source of G-begin in Fig 2 is a request as to what the type of the O argument of G-begin should be. タイプ G-begin の O-source における[S] アノテーションは、G-begin の O 引数の型が何であるべきかに関する要求である。 0.76
The type of a graph is the set of its sources with their request annotations, so the request [S] means that the source set of the argument must be {S}. グラフの型はリクエストアノテーションを持つソースのセットなので、リクエスト[S]は引数のソースセットが {S} でなければならないことを意味します。 0.76
Because this is true of G-glow, the AM dependency tree is well-typed; otherwise the tree could not be evaluated to a graph. これは G-glow に当てはまるため、AM 依存木は十分に型付けされている。
訳抜け防止モード: これは g - glow に当てはまるので、am 依存木はよく型付けされる さもないと、木はグラフに評価できない。
0.65
Thus, the graph constants lexically specify the semantic valency of each word as well as reentrancies due to e g control. したがって、グラフ定数は、eg制御による再帰性だけでなく、各単語の意味値を語彙的に規定する。 0.67
If a graph has no sources, we say it has the empty type [ ]; if a source in a graph printed here has no annotation, it is assumed to have the empty request (i.e. グラフにソースがない場合、空の型 [ ] があるとします。ここで印刷されたグラフのソースにアノテーションがない場合、空のリクエスト(つまり、)があると仮定されます。 0.80
its argument must have no sources). その主張には根拠がないこと)。 0.67
Parsing Groschwitz et al (2018) use a neural supertagger and dependency parser to predict scores parse groschwitz et al (2018) - neural supertagger and dependency parserを使用してスコアを予測する 0.84
b:beginf:fairyARG0g: glowARG1ARG0beginSAR G0glowARG1ARG0beginS ARG0O[S]ARG1fairyelfglowSARG 0charmSARG0OARG1char mOARG0SARG1 b:beginf:fairyARG0g: glowARG1ARG0bginSARG 0glowARG1ARG0beginSA RG0O[S]ARG1fairyelfglowSARG 0charmSARG0OARG1char mOARG0ARG1 0.38
英語(論文から抽出)日本語訳スコア
g:P-glow:[f] APPf f:P-fairy:[ ] g:P-glow:[f] APPf f:P-fairy:[] 0.89
MODf t:P-tiny:[f] MODF t:P-tiny:[f] 0.83
P-fairy (a) AMR P‐fairy (a)AMR 0.62
(b) Blob-normalised AMR b)Blob-normalized AMR 0.97
(c) Canonical AM tree with types (c)型付き正準am木 0.66
Figure 3: The tiny fairy glows. 図3:小さな妖精が光ります。 0.68
P-glow P-tiny P-sparkle P-and P-glow P-tiny P-sparkle P-and 0.45
Figure 4: Canonical constants. P(cid:48)-begin 図4: 正準定数。 P(cid:48)-begin 0.81
P(cid:48)-and p(cid:48)-and 0.84
Figure 5: Non-canonical constants with placeholder sources. 図5:プレースホルダーソースを持つ非標準定数。 0.70
for graph constants and edges respectively. グラフ定数とエッジそれぞれについて。 0.64
Computing the highest scoring well-typed AM dep-tree is NP-hard; we use their fixed-tree approximate decoder here. 最も高いスコアのよいAMデップツリーの計算はNPハードであり、ここでは固定木近似デコーダを用いる。 0.64
4 Decomposition algorithm 4 分解アルゴリズム 0.75
The central challenge of compositional methods lies in the fact that the compositional structures are not provided in the graphbanks. 構成法の中心的な課題は、構成構造がグラフバンクに提供されないという事実にある。 0.69
Existing AM parsers (Groschwitz et al , 2018; Lindemann et al , 2019, 2020) use hand-built heuristics to extract AM dep-trees for supervised training from the graphs in the graphbank. 既存のAMパーサー(Groschwitz et al , 2018; Lindemann et al , 2019, 2020)は、グラフバンク内のグラフからAMデップツリーを抽出し、教師付きトレーニングを行う。 0.71
These heuristics require extensive expert work, including graphbank-specific decisions for source allocations and graphbank- and phenomenon-specific patterns to extract type requests for reentrancies. これらのヒューリスティックは、ソースアロケーションのためのグラフバンク固有の決定や、再帰のためのタイプ要求を抽出するグラフバンクと現象固有のパターンを含む、広範な専門的な作業を必要とする。
訳抜け防止モード: これらのヒューリスティックは、graphbankを含む広範な専門家の作業を必要とします。 グラフバンクと現象-特定のパターン- reentranciesの型要求を抽出する。
0.53
In this section we present a simpler yet more complete method for obtaining the basic structure of an AM dep-tree for a given semantic graph G (for decomposing the graph), with much reduced reliance on heuristics. 本稿では、与えられた意味グラフ G に対する AM dep-tree の基本構造(グラフの分解)を得るための、より単純でより完全な方法を提案する。
訳抜け防止モード: 本稿では,与えられた意味グラフ G に対する AM dep - Tree の基本構造を得るための,より単純かつより完全な方法を提案する。 (グラフの分解) ヒューリスティックスへの依存を減らしました
0.80
We will learn meaningful source names jointly with training the parser in §5 and §6. 5と6のパーサーのトレーニングと合わせて意味のあるソース名を学びます。 0.59
Notation. We treat graphs as a quadruple G = (cid:104)NG, rG, EG, LG(cid:105), where the nodes NG are arbitrary objects (in the examples here we use lowercase letters), rG ∈ NG is the root, EG ⊆ NG×NG is a set of directed edges, and LG is the labelling function for the nodes and edges. 表記。 グラフを四重項 g = (cid:104)ng, rg, eg, lg(cid:105), ここでノード ng は任意の対象(ここでの例では小文字を使用する)、rg ∈ ng はルート、eg は有向エッジの集合、lg はノードとエッジのラベリング関数である。
訳抜け防止モード: 表記。 グラフを四重積 G = ( cid:104)NG, rG として扱う。 EG, LG(cid:105 ) ここでノードNGは任意のオブジェクトである(例では小文字を使う)。 rG ∈ NG が根である。 EG > NG×NG は有向エッジの集合である。 LGはノードとエッジのラベル付け機能です。
0.66
For example in Fig. 3a, the node g is labeled “glow”. 例えば、図です。 3a,ノードgは"glow"とラベル付けされる。 0.67
The node identities are not relevant for graph identity or evaluation measures, but allow us to refer to specific nodes during decomposition. ノードのアイデンティティはグラフの識別や評価には関係しないが、分解時に特定のノードを参照することができる。 0.71
We formalize AM dep-trees as similar quadruples. AM dep-trees を類似の四重項として定式化する。 0.42
Note that our example graphs are all AMRs, but our algorithms apply unchanged to all graphbanks 私たちの例グラフはすべてAMRであるが、アルゴリズムはすべてのグラフバンクに適用しない。 0.72
4.1 Basic transformation to AM dep-trees Let us first consider the case where the semantic graph G has no reentrancies, like in Fig 3a. 4.1 AMデプツリーへの基本的な変換 まず、図3aのように意味グラフ G が再帰性を持たない場合を考える。 0.77
The first step in obtaining the AM dep-tree for G is G の AM dep-tree を得る最初のステップは、 0.87
to obtain the basic shape of the constants. 定数の基本的な形を得るのです 0.65
We let each graph constant contain exactly one labeled node. 各グラフ定数は、正確に1つのラベル付きノードを含む。 0.63
Each edge belongs to the constant of exactly one node. 各辺はちょうど1つのノードの定数に属する。 0.70
The edges in the constant of a node are called its blob (Groschwitz et al , 2017); the blobs partition the edge set of the graph. ノードの定数の辺は、そのブロブ(groschwitz et al , 2017)と呼ばれ、ブロブはグラフの辺集合を分割する。 0.62
For example, the blobs of the AMR in Fig 3a are g plus the ‘ARG0’ edge, t plus the ‘mod’ edge, and f. We normalise edges so that they point away from the node to whose blob they belong, like in Fig 3b, where the ‘mod’ edge is reversed and grouped with the node t to match P-tiny in Fig 4. 例えば、図 3a の AMR のブロブは g プラスの 'ARG0' エッジ、t プラスの 'mod' エッジ、f である。
訳抜け防止モード: 例えば、図 3a の AMR のブロブは g である。 さらに、’ARG0 ’エッジ、t、‘mod ’エッジがある。 f. エッジを正規化し、それらが属するブロブへのノードから遠ざかるようにします。 例えば、Fig 3bでは、'mod 'エッジが反転する ノードtでグループ化され 図4でPと一致します。
0.76
We add an -of suffix to the label of reversed edges. 逆エッジのラベルに-of 接尾辞を追加します。 0.68
From here on, we assume all graph edges to be normalised this way. ここからは、すべてのグラフエッジをこの方法で正規化すると仮定する。 0.74
Heuristics for this partition of edges into blobs are simple yet effective. この辺をブロブに分割するヒューリスティックは単純だが効果的である。 0.54
Thus, this is the only part of this method where we still rely on graphbankspecific heuristics. したがって、これはグラフバンク固有のヒューリスティックに依存するこの方法の唯一の部分です。 0.65
(We use the same blob heuristics as Lindemann et al (2019) in our experiments). (実験ではlindemann et al (2019)と同じブロブヒューリスティックを用いています)。 0.66
Once the decision of which edge goes in which blob is made, we obtain canonical constants, which are single node constants using placeholder source names and the empty request at every source; see e g P-glow in Fig 4 (P for ‘placeholder’). どのエッジがblobになるかが決定されると、プレースホルダのソース名とすべてのソースの空のリクエストを使って単一のノード定数である標準定数を得る(図4のp-glow(プレースホルダ)を参照)。 0.72
Placeholder source names are graphspecific source names: for a given argument slot in a constant, let n be the node that eventually fills it in G; we write n for the placeholder source in that slot. プレースホルダーのソース名はグラフ固有のソース名である: ある引数スロットを定数として、n を最終的に G で満たすノードとし、そのスロットにプレースホルダーのソースを n と書く。 0.83
For example in the AM dep-tree in Fig 3c the source f in P-glow (Fig. 例えば、Fig 3c の AM dep-tree では、ソース f は P-glow (Fig) である。 0.58
4) gets filled by node f in the AMR in Fig 3b. 4)は、図3bのamrのノードfで満たされる。 0.68
These placeholder sources are unique within the graph, allowing us to track source names through the AM dep-tree. これらのプレースホルダーソースはグラフ内でユニークであり、AM dep-treeを通してソース名を追跡することができます。 0.61
When we restrict ourselves to the canonical constants, in a setting without reentrancies, the compositional structure is fully determined by the structure of the graph: Lemma 4.1. 自分自身を正準定数に制限するとき、再帰性のない設定では、構成構造はグラフの構造によって完全に決定される: Lemma 4.1。 0.74
For a graph G without reentrancies, given a partition of G into blobs, there is exactly one AM dep-tree CG with canonical constants that evaluates to G. 再帰性のないグラフ G に対して、G のブロブへの分割が与えられたとき、G に評価される標準定数を持つ AM dep-tree CG がちょうど 1 つ存在する。 0.67
We call this AM dep-tree the canonical AM tree 私たちはこのAMデップツリーを標準AMツリーと呼ぶ 0.59
t:tinyf:fairymodg:gl owARG0t:tinyf:fairym od-ofg:glowARG0fairy glowfARG0tinyfmod-of sparklefARG1andsop1g op2beginfARG0g[f]ARG1ands[f]op1g[f]op2 t:tinyf:fairymodg:gl owARG0t:tinyf:fairym od-ofg:glowARG0fairy glowfARG0tinyfmod-of sparklefARG1andsop1g op2beginfARG0g[f]ARG1ands[f]op1g[f]op2 0.62
英語(論文から抽出)日本語訳スコア
a:P-and:[s, g] a:P-and:[s, g] 0.94
APPs APPg s:P-sparkle:[f] APPf f:P-fairy:[ ] アプリ 拍手 s:P-sparkle:[f] APPf f:P-fairy:[ ] 0.64
g:P-glow:[f] APPf x:REF-f:[ ] g:P-glow:[f] APPf x:REF-f:[ ] 0.96
(a) AMR G (b) Unrolled U (a)AMR G(b)Unrolled U 0.78
(c) Canonical AM tree CU (c)正準am木cu 0.72
a:P(cid:48)-and:[s[f], g[f]] a:P(cid:48)-and:[s[f], g[f]] 0.81
APPs APPg APPf アプリ appg‐appf 0.64
s:P-sparkle:[f] s:p-sparkle:[f] 0.94
g:P-glow:[f] g:P-glow:[f] 0.96
f:P-fairy:[ ] f:p-fairy:[ ] 0.95
(d) Partial result (e) Resolved AM dep-tree T for (a); changes with respect to (c) in purple (d)部分的な結果 (e) (a) に対するam dep-tree t を解決し、紫の (c) に対する変化 0.82
Figure 6: Analysis for The fairy sparkles and glows. 図6:妖精の火花と光の分析。 0.66
CG = (cid:104)NG, rG, EC, LC(cid:105) of G. Fig 3c shows the canonical AM tree for the graph in Fig 3b, using the canonical constants in Fig 4. CG = (cid:104)NG, rG, EC, LC(cid:105) of G. Fig 3c shows the canonical AM tree for the graph in Fig 3b, using the canonical constants in Fig 4. 1.00
The canonical AM tree uses the same nodes and root as G, and essentially the same edges, but all edges point away from the root, forming a tree. 標準のam木はgと同じノードとルートを使い、本質的には同じエッジを使うが、すべてのエッジは根から遠ざかって木を形成する。
訳抜け防止モード: 標準AMツリーはGと同じノードとルートを使用し、本質的に同じエッジを使用する。 全ての端は根から遠ざかって木を形成しています
0.81
Each node is labeled with its canonical constant. 各ノードは標準定数でラベル付けされる。 0.75
Each edge n −→ m ∈ EC is labeled APPm if the corresponding edge in the graph has the same direction, and is labeled MODn if there is instead an edge m −→ n in G. 4.2 Reentrancies and types Finding AM dep-trees for graphs with reentrancies, like in Fig 6a, is more challenging. 各辺 n −→ m ∈ ec は、グラフ内の対応する辺が同じ方向を持つ場合、appm とラベル付けされ、g.4 の辺 m −→ n が存在する場合、modn とラベル付けされる。
訳抜け防止モード: 各エッジ n −→ m ∈ EC はラベル付けされる appm グラフのエッジが同じ方向なら G.4.2 再帰にエッジ m −→ n が存在する場合、MODn とラベル付けされる。 AM dep - 図6aのような再帰性のあるグラフ用のツリー。 もっと難しいのです
0.74
To solve the problem in its generality, we first unroll the graph as in Fig 6b, representing the reentrancy at f not directly, but with a reference node with label REF-f. この問題を一般化するために、まず図6bのようにグラフをアンロールし、直接ではなく、ラベル REF-f を持つ参照ノードで f の残差を表す。 0.75
Merging this REF-node with the node f it refers to yields the original graph again. このREFノードをノードfとマージすると、元のグラフが再び生成される。 0.74
(See §4.3 for our unrolling algorithm.) (解凍アルゴリズムは4.3を参照)。 0.70
An unrolled graph U shares its non-REF-nodes with the original graph G. REF-nodes are always leaves. 非ローリンググラフ U は元のグラフ G と非REF-ノードを共有する。 0.65
We then obtain a canonical AM-tree CU for the unrolled graph U as in §4.1 (see Fig 6c), but REF-n nodes fill n-sources; e g x has an incoming APPf edge here. 次に、非ローリンググラフ U に対する標準 AM-tree CU を得る(図 6c 参照)が、REF-n ノードは n-ソースを満たす。
訳抜け防止モード: すると、anonical AM - tree CU for unrolled graph U as as in sh 4.1 (Fig 6c )。 しかし REF - n ノードは n - ソースを埋める; e g x は APPf エッジをここに持ってくる。
0.73
CU evaluates to U, not to G; we obtain an AM dep-tree that evaluates to G through a process called resolving the reentrancies, which removes all REF-nodes and instead expresses the reentrancies with the AM type system. CU は G ではなく U に評価し,reentrancies の解消というプロセスを通じて G に評価する AM dep-tree を得る。
訳抜け防止モード: CUはGではなくUに評価する AM dep- tree は G に評価され、再帰の解消というプロセスによって得られる。 これはすべてのREF-ノードを削除し、代わりにAM型システムで再収束を表現する。
0.67
Fig. 6e shows the result T of applying this resolution process to CU in Fig 6c. フィギュア。 6eは、図6cのCUにこの分解プロセスを適用する結果Tを示す。 0.59
In T , the s and g sources of the graph P(cid:48)-and (see Fig 5) each have a request [f] that signals that the f sources of P-sparkle and P-glow are still open when these graphs combine with P(cid:48)-and, yielding the partial T では、グラフ P(cid:48) と (図 5 参照) の s と g のソースはそれぞれ、P-スパークルと P-グローの f のソースが P(cid:48) と組み合わされたときにまだ開いていることを示す要求 [f] を持つ。 0.88
unrolling U of G; g の unrolling u; 0.74
Algorithm 1: Reentrancy resolution 1 T ← the canonical AM-tree CU of an 2 R ← {n ∈ NG | ∃ REF-n node in U}; 3 while R (cid:54)= ∅: Pick a y ∈ R s.t. アルゴリズム 1: Reentrancy resolution 1 T {\displaystyle 1T\,} の標準 AM-tree CU は U {\displaystyle U} の 2 R > {n ∈ NG | > REF-n ノードであり、3 は R (cid:54)= >: Pick a y ∈ R s.t である。 0.72
there is no x ∈ R, x (cid:54)= y, with y on an x-resolution path; for p ∈ y-resolution paths: x ∈ r, x (cid:54)= y は存在せず、y は x 分解経路上にある。
訳抜け防止モード: x ∈ r, x (cid:54)= y, y を x-分解経路 ; for p ∈ y - resolution paths :
0.79
4 5 for n APP−−→ m ∈ p: 4 5 n APP−− − m ∈ p: 0.85
if m is y or labeled REF-y: m が y または REF-y であるなら 0.74
Add β(y) to the request at y in τ(n); τ(n); の y における要求に β(y) を加える 0.80
else: Add y[β(y)] to the request at m in τ(n); その他 τ(n); の m における要求に y[β(y)] を加える 0.66
6 7 8 9 10 6 7 8 9 10 0.85
11 Move the subtree of T rooted at y up to be an APPy daughter of RT (y), unless RT (y) = y; Delete all REF-y nodes from T ; R ← R − {y} 11 RT (y) = y でない限り RT (y) の APPy 娘となるように y で根付いた T の部分木を移動させよう; RT (y) = y; すべての REF-y ノードを T から削除する; R > R − {y} 0.80
12 13 14 return T 12 13 14 return T 0.85
result in Fig 6d. 結果、fig 6d。 0.70
Since identical sources merge in the AM algebra, Fig 6d has a single f-source slot. 同じソースがAM代数にマージされるので、Fig 6d は単一の f-ソーススロットを持つ。 0.66
Into this slot, P-fairy is inserted to yield the original graph G in Fig 6a, and we have obtained the reentrancy without using a REF-node. このスロットに P-fairy を挿入して、図 6a の原グラフ G を出力し、REF-ノードを使わずに再帰性を得る。 0.73
f is now a child of a in T ; we call a the resolution target of f, RT (f ). f は現在 a in t の子であり、f, rt (f ) の分解目標と呼ぶ。
訳抜け防止モード: f は、現在、in T の子である。 我々は f, RT (f ) の分解目標と呼ぶ。
0.75
In general the resolution target of a node n is the lowest common ancestor of n and all nodes labeled REF-n. 一般に、ノード n の分解対象は n の最も低い共通祖先であり、すべてのノードは ref-n とラベルされている。 0.62
Thus, to resolve the graph, we (a) add the necessary type requests to account for sources remaining open until they are merged at the resolution target and (b) make each node a dependent of its resolution target and remove all REF-nodes. したがって、グラフを解くために、(a)解像度ターゲットにマージされるまでオープンのままのソースを考慮に入れ、(b)各ノードを解像度ターゲットに依存させ、すべてのREFノードを除去するために必要なタイプリクエストを追加する。 0.77
Algorithm 1 describes this procedure. アルゴリズム1は、この手順を記述する。 0.58
It uses the idea of an nresolution path, which is a path between a node n or a REF-n node and its resolution target. これはノード n または REF-n ノードとその分解目標の間の経路である n 分解経路という考え方を用いる。 0.81
In Fig. 6c, there are two f-resolution paths: one in blue between f and its resolution target a, and one in green between the REF-f node x and its resolution target a. フィギュア。 6cでは、fと分解目標aとの間には青色、REF-fノードxと分解目標aとの間には緑色と2つのf分解経路が存在する。 0.46
Further, τ(n) is the type of the graph constant in T for a node n and β(n) is the type of the result of evaluating the subtree below n in T . さらに、τ(n) は T のノード n に対するグラフ定数の型であり、β(n) は T の n 以下の部分ツリーを評価する結果の型である。 0.79
In the example, Algorithm 1 iterates over all edges in both resolution paths (Line 5; the order of these iterations does not impact the result). この例では、アルゴリズム1は2つの解像度パスのすべてのエッジを反復する(行5;これらのイテレーションの順序は結果に影響しない)。 0.74
For the APPf−−→ x, Line 7 two bottom edges s applies. appf−−→x の場合、行7の底辺 s が適用される。 0.59
Since the subtree rooted at f evaluates to f で根付いた部分木が評価されるので 0.59
APPf−−→ f and g APPf−−→ f および g 0.71
a:ands:sparkleop1g:g lowop2f:fairyARG1ARG 0a:ands:sparkleop1g: glowop2f:fairyARG1x: REF-fARG0a:ands:spar kleop1g:glowop2fARG1 ARG0 a:ands:sparkleop1g:g lowop2f:fairyARG1ARG 0a:ands:sparkleop1g: glowop2f:fairyARG1x: REF-fARG0a:ands:spar kleop1g:glowop2fARG1 ARG0 0.60
英語(論文から抽出)日本語訳スコア
a constant with empty type, no actual changes are made here (β(y) can be non-trivial from resolution paths handled previously). 空の型を持つ定数では、実際の変更は行われない(β(y) は以前処理された分解経路から非自明である)。 0.66
For the two upper edges a APPs−−→ s and a APPg−−→ g, Line 9 applies, adding f to the requests at s and g in the constant at a. 2つの上縁の APPs−−→ s と APPg−−→ g に対して、Line 9 は a の定数において s と g の要求に f を加える。 0.75
In Line 10, f gets moved up to become a child of its resolution target a and in Line 11 the REF-f node x gets removed, yielding T in Fig 6e. ライン10では、fはその解像度目標aの子供となり、ライン11ではREF-fノードxが除去され、図6eではTとなる。 0.75
Algorithm 1 is correct in the following precise sense: Theorem 1. アルゴリズム1は、以下の正確な意味で正しい: 定理1。 0.77
Let G be a graph, let U be an unrolling of G, let CU be the canonical AM-tree of U, and let T be the result of applying Algorithm 1 to CU . G をグラフとし、U を G のアンローリングとし、CU を U の標準 AM-ツリーとし、T を CU にアルゴリズム 1 を適用する結果とする。 0.75
Then T is a well-typed AM dep-tree that evaluates to G iff for all y ∈ NG, for all y-resolution paths p in C, 1. the bottom-most edge n −→ m of p (i.e. このとき T は、C のすべての y ∈ NG に対して G iff と評価される、よく型付けされた AM dep-tree であり、C のすべての y 分解経路 p に対して、p の最下端 n − − m である。
訳抜け防止モード: このとき、T は、すべての y ∈ NG に対して G iff と評価する well-typed AM dep- tree である。 すべての y - 分解経路 p in C , 1 , the bottom - most edge n −→ m of p (すなわち。
0.68
m is y or labeled REF-y) does not have a MOD label, and m is y or labeled REF-y)にはMODラベルがなく、 0.80
2. for all y-resolution paths p in C, if n MOD−−→ m ∈ p, n, m (cid:54)= y, then there is a directed path in G from n to y. 2. C 内のすべての y 分解経路 p に対して、n MOD−−→ m ∈ p, n, m (cid:54) = y ならば、G 内の n から y への有向経路が存在する。 0.74
Condition (1) captures the fact that moving MOD edges in the graph changes the evaluation result (the modifier would attach at a different node) and Condition (2) the fact that modifiers are not allowed to add sources to the type of the head they modify. 条件(1)は、グラフ内の移動MODエッジが評価結果(変調器が別のノードにアタッチされる)を変化させるという事実と、条件(2)修飾器が修正したヘッドのタイプにソースを追加することができないという事実をキャプチャする。 0.79
Algorithm 1 does not yield all possible AM deptrees; in Appendix B, we present an algorithm that yields all possible AM dep-trees (with placeholder sources) for a graph. アルゴリズム1はすべての可能な am deptrees を産出しない; 付録bにおいて、グラフに対してすべての可能な am dep-trees (placeholder sources) を産出するアルゴリズムを示す。 0.74
However, we find in practice that Algorithm 1 almost always finds the best linguistic analysis; i.e. しかし、実際、アルゴリズム1は常に最良の言語分析、すなわち、最も優れた言語分析を見出す。 0.71
reasons to deviate from Algorithm 1 are rare (we estimate that this affects about 1% of nodes and edges in the AM dep-tree). アルゴリズム1から逸脱する理由は稀である(AMデップツリーのノードとエッジの約1%に影響すると推定される)。 0.72
We leave handling these rare cases to future work. これらの稀なケースは今後の作業に任せます。 0.56
4.3 Unrolling the graph To obtain an unrolled graph U, we use Algorithm 2. 4.3 グラフのアンロール アンロールされたグラフUを得るためには、アルゴリズム2を用いる。 0.63
The idea is to simply expand G through breadth-first search, creating REF-nodes when we encounter a node a second time. アイデアは、gを幅優先の検索で単純に拡大し、ノードに2度遭遇するとrefノードを生成することだ。 0.58
We use separate queues F and B for forward and backward traversal of edges, allowing us to avoid traversing edges backwards wherever possible, since that would yield MOD edges in the canonical AM-tree CU , which can be problematic for the conditions of Theorem 1. それぞれのキューFとBをエッジの前方および後方の移動に使用することにより、可能な限りエッジの後方への移動を回避できます。
訳抜け防止モード: 我々は、エッジの前方および後方移動に別々のキューFとBを使用する。 可能な限り 端を裏切るのを避けることができます そのため、標準 AM - tree CU においてMOD エッジが生成される。 これは Theorem 1 の条件で問題となる可能性がある。
0.67
And indeed, we can show that whenever there is an unrolled graph U satisfying the conditions of Theorem 1, Algorithm 2 returns one. 実際、定理 1 の条件を満たすグラフ U が存在するときは常にアルゴリズム 2 が 1 を返すことを示すことができる。 0.78
Algorithm 2 does not specify the order in which the incident edges of each node n are added to the アルゴリズム2は、各ノードnの入射エッジが付加された順序を指定しない。 0.70
and incoming edges of rG to B; そして、rG の B への入射端 0.58
Algorithm 2: Unrolling Input: Graph G 1 F, B ← empty FIFO queues; 2 U ← empty graph; 3 add rG to U, add outgoing edges of rG to F 4 while F ∪ B (cid:54)= ∅: e ← F .pop; n ← e.target; e ← B.pop; n ← e.origin; Algorithm 2: Unrolling Input: Graph G 1 F, B . empty FIFO queues; 2 U . empty graph; 3 add rG to U, add outgoing edges of rG to F 4 while F . B (cid:54)= .: e . F .pop; n . e.target; e . B.pop; n . e.origin; 0.90
if F (cid:54)= ∅: // traverse forward F (cid:54)= s: // traverse forward 0.86
// traverse backward Mark e as traversed; if n (cid:54)∈ NU: //逆行 Mark e as traversed; if n (cid:54)∂ NU: 0.82
add n, e to U; add untraversed outgoing edges of n to F and incoming to B n, e を U に加える; n の外縁を F に追加し、B に入力する 0.81
add new x to NU ; L(x) = REF-n; add e(cid:48) to EU where e(cid:48) is just like e except with x in place of n new x to nu ; l(x) = ref-n; add e(cid:48) to eu where e(cid:48) is just like e except with x in place of n 0.89
5 6 7 8 9 10 5 6 7 8 9 10 0.85
11 12 13 14 11 12 13 14 0.85
15 16 17 else: 15 16 17 その他 0.70
else: 18 return U その他 18 return U 0.70
queues, leaving an element of choice. キュー、選択の要素を残します。 0.73
However, we find that nearly all of these choices are unified later in the resolution process; meaningful choices are rare. しかし、これらの選択のほとんど全てが解決プロセスで後に統一されていることが分かり、有意義な選択は稀である。
訳抜け防止モード: しかし 私たちは これらの選択のほとんど全ては、後に解決プロセスで統一されます 有意義な選択は稀である。
0.70
For example in Fig 6b, f and x may be switched, but Algorithm 1 always yields the AM dep-tree in Fig 6e. 例えば Fig 6b では f と x を切り替えるが、アルゴリズム 1 は常に Fig 6e の AM dep-tree を生成する。 0.84
In practice, we execute Algorithm 2 with arbitrary queueing order, and follow it with Algorithm 1. 実際、アルゴリズム2を任意の待ち行列順で実行し、アルゴリズム1でそれに従う。 0.65
The AM dep-tree we obtain is guaranteed to be a decomposition of the original graph whenever one exists: Theorem 2. 私たちが得られるAM dep-treeは、必ず元のグラフの分解であることが保証される。 0.70
Let G be a graph partitioned into blobs. G を blob に分割したグラフとする。 0.80
If there is a well-typed AM dep-tree T , using that blob partition, that evaluates to G, then Algorithm 2 (with any queueing order) and Algorithm 1 yield such a tree. 良く型付けされた AM dep-tree T が存在し、その blob パーティションを使用して G に評価すると、アルゴリズム2 (キュー順) とアルゴリズム1 はそのような木を生成する。 0.79
5 Tree automata for source names 5 ソース名のためのツリーオートマトン 0.70
We have now seen how, for any graph G, we obtain a unique AM dependency tree T . 今では、任意のグラフ G に対して、一意な AM 依存木 T を得る方法について見てきた。
訳抜け防止モード: 私たちは今どのようにして 任意のグラフ G に対して、一意な AM 依存木 T を得る。
0.63
This tree represents the compositional structure of G, but it still contains placeholder source names. この木は g の構成構造を表しているが、まだプレースホルダーのソース名を含んでいる。 0.68
We will now show how to automatically choose source names. ソース名を自動的に選択する方法を示します。 0.69
These names should be consistent across the trees for different sentences; this yields reusable graph constants, which capture linguistic generalizations and permit more accurate parsing. これらの名前は、異なる文に対して木全体に一貫性を持たなければならない;これは再利用可能なグラフ定数をもたらし、言語一般化をキャプチャし、より正確な解析を可能にする。 0.53
But the source しかし 情報源は 0.75
英語(論文から抽出)日本語訳スコア
names must also remain consistent within each tree to ensure that the tree still evaluates correctly to G; for instance, if we replace the placeholder source f in P-glow in Fig 6e by O, but we replace f in P(cid:48)-and by S, then the AM dep-tree would not be well-typed because the request is not satisfied. 例えば、図6eのp-glow のプレースホルダーソース f を o で置き換えるが、p(cid:48) で f を s で置き換えると、am dep-tree は要求が満たされていないため、うまく型付けされない。
訳抜け防止モード: ツリーがGに対して正しく評価されていることを確実にするために、名前も各ツリー内で一貫性を保つ必要があります。 ; 例えば プレースホルダーのソースfをPで置き換えます。 しかし P(cid:48) の f を S に置き換える。 リクエストが満足していないので、AM dep -treeはうまくタイプされないでしょう。
0.63
We therefore proceed in two steps. したがって、2つのステップで進む。 0.64
In this section, we represent all internally consistent source assignments compactly with a tree automaton. この節では、すべての内部一貫性のあるソース割り当てをツリーオートマトンでコンパクトに表現します。 0.60
In §6, we then learn to select globally reusable source names jointly with training the neural parser. 6 では,大域的に再利用可能なソース名とニューラルパーザのトレーニングを併用して選択することを学ぶ。
訳抜け防止モード: 6 で学ぶと ニューラルネットワークの訓練と共同で、グローバルに再利用可能なソース名を選択する。
0.64
Tree automata. ツリーオートマチック。 0.63
A (bottom-up) tree automaton (Comon et al , 2007) is a device for compactly describing a language (set) of trees. ボトムアップ(bottom-up)ツリーオートマトン(comon et al, 2007)は、木の言語(集合)をコンパクトに記述する装置である。 0.81
It processes a tree bottom-up, starting at the leaves, and nondeterministically assigns states from a finite set to the nodes. 葉から始まる木のボトムアップを処理し、非決定論的に有限集合からノードへ状態を割り当てる。 0.75
A rule in a tree automaton has the general shape f (q1, . 木オートマトンにおける規則は、一般的な形 f (q1, ) を持つ。 0.67
. . , qn) → q. . . , qn) → q である。 0.86
If the automaton can assign the states q1, . もしオートマトンが状態 q1, を割り当てることができれば。 0.67
. . , qn to the children of a node π with node label f, this rule allows it to assign the state q to π. . . ノードラベル f を持つノード π の子供たちに qn を割り当てると、この規則により状態 q を π に割り当てることができる。 0.84
The automaton accepts a tree if it can assign a final state to the root node. オートマトンは、最終状態をルートノードに割り当てることができれば、ツリーを受理する。 0.75
Tree automata can be seens as generalisation of parse charts. tree automataはパースチャートの一般化と見なすことができる。 0.74
General construction. Given an AM dependency tree T with placeholders, we construct a tree automaton that accepts all well-typed variants of T with consistent source assignments. 一般建築。 プレースホルダーを持つAM依存ツリーTが与えられたとき、一貫したソース割り当てを持つTのすべての well-typed 変種を受け入れるツリーオートマトンを構築する。 0.64
More specifically, let S be a finite set of reusable source names; we will use S = {S, O, M} here, evoking subject, object, and modifier. より具体的には、S を再利用可能なソース名の有限集合とし、ここで S = {S, O, M} を使い、主語、対象、修飾子を呼び出す。 0.81
The automaton will keep track of source name assignments, i.e. オートマトンは、ソース名の割り当てを追跡する。 0.58
of partial functions φ from placeholder source names into S. Its rules will ensure that the functions φ assign source names consistently. プレースホルダーのソース名からSへの部分関数 φ の規則は、φ がソース名を一貫して割り当てることを保証する。 0.78
We start by binarizing T into a binary tree B, whose leaves are the graph constants in T and whose internal nodes correspond to the edges of T ; the binarized tree for the dependency tree in Fig 7a is shown in Fig 7b. まず、T を T のグラフ定数とし、内部ノードが T のエッジに対応する二項木 B に二項化し、図 7a の依存木に対する二項化木を図 7b に示す。
訳抜け防止モード: まず t を二元木 b に二元化し、葉を t のグラフ定数とする。 内部ノードは t の辺に相当します 図7aにおける依存関係ツリーの2値化ツリーは、図7bに示される。
0.85
We then construct a tree automaton AB that accepts binarized trees which are isomorphic to B, but whose node labels have been replaced by graph constants and operations with reusable source names. 次に、B に同型だがノードラベルをグラフ定数に置き換え、再利用可能なソース名の操作を行う二項化木を受け入れる木オートマトン AB を構築する。
訳抜け防止モード: 次に、B に同型な二項化木を受け入れる木オートマトン AB を構築する。 ノードのラベルは グラフ定数と再利用可能なソース名による操作に置き換えられた。
0.76
The states of AB are of the form (cid:104)π, φ(cid:105), where φ is a source name assignment and π is the address of a node in B. Node addresses π ∈ N∗ are defined recursively: the root has the empty address , and the i-th child of a node at address π has address πi. ab の状態は (cid:104)π, φ(cid:105) の形であり、ここで φ はソース名の代入であり、π は b 内のノードのアドレスである。
訳抜け防止モード: ABの状態は (cid:104)π, φ(cid:105 ) である。 φ はソース名代入であり、π は B のノードのアドレスである。ノードアドレス π ∈ N∗ は再帰的に定義される。 根の空のアドレスは アドレス π のノードの i - 番目の子にはアドレス πi がある。
0.87
The final states are all states with π = , indicating that we have reached the root. 最終状態は π = π の全ての状態であり、根に到達したことを示す。 0.76
P-fairy:[ ] p-fairy:[ ] 0.95
MODf P(cid:48)-begin:[f, g[f]] MODF P(cid:48)-begin:[f, g[f]] 0.78
APPg P-glow:[f] 拍手 P-glow:[f] 0.65
(a) MODf P-fairy APPg (a) MODF P‐fairy 0.77
P(cid:48)-begin P-glow P(cid:48)-begin P-glow 0.75
MODS (cid:104),{}(cid:105) MODS (cid:104)*,{}(cid:105) 0.77
APPO f(cid:55)→S APPO f(cid:55)→S 0.82
(cid:9)(cid:11) (cid:10)1,(cid:8)g(c id:55)→O (cid:9)(cid:11) G-glow (cid:9)(cid:11) (cid:10)1,(cid:8)g(c id:55)→O(cid:9)(cid:11)G-gl ow 0.73
(cid:104)11,{f(cid:55)→S}(cid:105) (cid:104)11,{f(cid:55)→S}(cid:105) 0.86
G-fairy (cid:104)0,{}(cid:105) G-fairy (cid:104)0,{}(cid:105) 0.94
(cid:10)10,(cid:8)g( cid:55)→O (cid:10)10,(cid:8)g( cid:55)→O 0.82
G-begin f(cid:55)→S G-begin f(cid:55)→S 0.69
(b) (c) Figure 7: (a) AM dep-tree with placeholder sources for the graph in Fig 1c, (b) its binarization B and (c) example automaton run (states in green). (b) (c) 図7: (a) AM dep-tree with placeholder sources for the graph in Fig 1c, (b) its binarization B and (c) example automatedon run (states in green)。 0.84
Rules. The automaton AB has two kinds of rules. ルール。 オートマトンABには2種類のルールがある。 0.72
Leaf rules choose injective source name assignments for constants; there is one rule for every possible assignment at each constant. リーフ規則は定数に対してインジェクティブなソース名代入を選択する; 各定数に可能な代入ごとに1つのルールが存在する。
訳抜け防止モード: リーフルールは定数のインジェクティブソース名代入を選択する 各定数に可能な代入ごとに1つのルールがある。
0.71
That is, for every graph constant H at an address π in B, the automaton AB contains all rules of the form すなわち、B のアドレス π におけるすべてのグラフ定数 H に対して、オートマトン AB は形式の全規則を含む。 0.87
G (cid:55)→ (cid:104)π, φ(cid:105) G (cid:55)→ (cid:104)π, φ(cid:105) 0.84
where φ is an injective map from the placeholder sources in H to S, and G is the graph constant identical to H except that each placeholder source s in H has been replaced by φ(s). φ は H から S へのプレースホルダー元からの射影写像であり、G は H と同一のグラフ定数であるが、H 内の各プレースホルダー元 s は φ(s) に置き換えられている。 0.80
For example, the automaton for Fig 7b contains 例えば fig 7b のオートマトンには 0.57
the following rule: G-begin → (cid:104)00,{g (cid:55)→ O, f (cid:55)→ S}(cid:105) 次のルールは g-begin → (cid:104)00,{g (cid:55)→ o, f (cid:55)→ s}(cid:105) 0.79
Note that this rule uses the node label G-begin with the reusable source names, not the graph constant P(cid:48)-begin in B with the placeholders. この規則は、グラフ定数 P(cid:48)-begin in B ではなく、再利用可能なソース名を持つノードラベル G-begin を用いる。 0.81
In addition, operation rules percolate source assignments from children to parents. さらに、オペレーションルールは、子供から親へのソース割り当てをパーコレートする。 0.65
Let APPx for some placeholder source x be the operation at address π in B. あるプレースホルダー元 x に対して APPx を B のアドレス π での演算とする。 0.73
Then AB contains all rules of the form AB はその形式のすべての規則を含む。 0.76
APPφ1(x) ((cid:104)π0, φ1(cid:105) ,(cid:104)π1, φ2(cid:105)) → (cid:104)π, φ1(cid:105) APPφ1(x) ((cid:104)π0, φ1(cid:105) , (cid:104)π1, φ2(cid:105)) → (cid:104)π, φ1(cid:105) 0.77
as long as φ1 and φ2 are identical where their domains overlap, i.e. φ1 と φ2 が同一である限り、これらの領域は重なり合う。 0.81
they assign consistent source names to the placeholders. 彼らは一貫したソース名をプレースホルダーに割り当てます 0.65
The rule passes φ1 on to its parent. この規則はφ1を親に渡す。 0.74
The assignments in φ2 are either redundant, because of overlap with φ1, or they are no longer relevant because they were filled by operations further below in the tree. φ2 の代入は、φ1 と重複しているため冗長であるか、木の下の操作で満たされているため、もはや関係がない。 0.73
The MOD case works out similarly. MODケースも同様に機能する。 0.81
In the example, AB contains the rule 例では、ABはルールを含む。 0.74
APPO ((cid:104)10, φb(cid:105) ,(cid:104)11, φg(cid:105)) → (cid:104)1, φb(cid:105) APPO ((cid:104)10, φb(cid:105) , (cid:104)11, φg(cid:105)) → (cid:104)1, φb(cid:105) 0.81
英語(論文から抽出)日本語訳スコア
where φb = {g (cid:55)→ O, f (cid:55)→ S} and φg = {f (cid:55)→ S}, because φb and φg agree on f. A complete accepting run of the automaton is shown in Fig 7c. ここで φb = {g (cid:55) → O, f (cid:55) → S} と φg = {f (cid:55) → S} は f に一致する。
訳抜け防止モード: ここで φb = { g ( cid:55)→ o, f ( cid:55)→ s } である。 そして φg = { f ( cid:55)→ s } である、なぜならば φb と φg は f について一致するからである。
0.78
The automaton AB thus constructed accepts the binarizations of all well-typed AM dependency trees with sources in S that match T . したがって、オートマトン ab は t に一致する s のソースを持つすべてのよく型づけされた am 依存木の双対化を受け入れる。 0.55
6 Joint learning of compositional structure and parser 6 構成構造とパーザの連成学習 0.81
As a final step, we train the neural parser of Groschwitz et al (2018) directly on the tree automata. 最後のステップとして、groschwitz et al (2018)のニューラルネットワークパーサをツリーオートマトンに直接トレーニングします。 0.65
For each position i in the sentence, the parser predicts a score c (G, i) for each graph constant G, and for each pair i, j of positions and operation (cid:96), it predicts an edge score c 文中の各位置 i について、パーザはグラフ定数 G 毎にスコア c (G, i) を予測し、各ペア i, j の位置と操作 (cid:96) に対してエッジスコア c を予測する。 0.82
i (cid:96)−→ j i (cid:96)−→j 0.79
(cid:16) (cid:17) (cid:16) (cid:17) 0.78
. The tree automata are factored the same way, in that they have one rule per graph constant and per dependency edge. . ツリーオートマトンは同じ方法で分解され、グラフ定数と依存性エッジごとに1つのルールを持つ。 0.77
As a result, we get a oneto-one correspondence between parser scores and automaton rules when aligning automata rules to words via the words’ alignments to graph nodes. その結果、単語のアライメントからグラフノードへオートマトンルールをアライメントする場合、パーサスコアとオートマトンルールの1対1対応が得られる。
訳抜け防止モード: その結果、パーサスコアとオートマトンルールの間に1対1の対応が得られます。 automataのルールをグラフノードへのアライメントを通じて単語にアライメントする。
0.70
We thus take the neural parser scores as rule weights c (r) for rules r in the automaton. そこで我々は, ニューラルパーザスコアを, オートマトンにおけるルールrのルール重みc(r)とみなす。 0.66
In a weighted tree automaton, the weight of a tree is defined as the product of the weights of all rules that built it. 重み付き木オートマトンでは、木の重みは、それを構築した全てのルールの重みの積として定義される。 0.68
The inside score I of the tree automaton is the sum of the weights of all the trees it accepts. ツリーオートマトンの内部スコアIは、受け入れるすべてのツリーの重量の合計である。 0.53
Computing this sum naively would be intractable, but the inside score can be computed efficiently with dynamic programming. この和を計算することは難解だが、内部のスコアは動的プログラミングで効率的に計算できる。 0.81
Our training objective is to maximize the sum of the log inside scores of all automata in the corpus. 私たちのトレーニングの目的は、コーパス内のすべてのオートマタのスコア内のログの総和を最大化することです。
訳抜け防止モード: 訓練の目的は コーパス内の全てのオートマタのスコア内のログの合計を最大化する。
0.76
The arithmetic structure of computing the inside scores is complex and varies from automaton to automaton, which would make batching difficult. 内部スコアを計算する算術構造は複雑であり、オートマトンからオートマトンまで様々であり、バッチ処理が困難になる。 0.76
We solve this with the chain rule as follows: 私たちは、以下の連鎖規則でこれを解決します。 0.61
(cid:88) (cid:88) (cid:88)(cid:88) 0.74
r∈A r∈A rftpa rftpa 0.36
∇θ log I = ~θ log I = 0.92
∇I = 1 I = 1 I 1 I 〈i〉 1 = 1 1 0.55
∂ I ∇θc (r) ∂c (r) α (r)∇θc (r) , ∂ は (r)。 ∂c (r) α (r) θc (r) , , 0.78
where θ are the parameters of the neural parser, which determine c(r), and α (r) is the outer weight of the rule r (Eisner, 2016), i.e. ここで θ は c(r) を決定する神経解析器のパラメータであり、α(r) は規則 r の外重量である(eisner, 2016)。 0.69
the total weight of trees that use r divided by c(r). c(r)で割られたrを使用する木の総重量。 0.77
The outer weight can be effectively computed with the inside-outside algorithm (Baker, 1979). 外側の重みは内外アルゴリズム(baker, 1979)によって効果的に計算できる。 0.86
This occurs outside of the gradient, so we do not need to backpropagate into it. これは勾配の外側で起こるので、それをバックプロパゲートする必要はありません。 0.67
Since the scores c (r) are direct outputs of the neural parser, their gradients can be batched straightforwardly. スコアc(r)はニューラルパーサの直接出力であるため、それらの勾配は簡単にバッチ化することができる。 0.64
Method random trees random weights EM weights joint neural model (§6) 方法 ランダムツリー ランダム重み ランダム重み em 重み ジョイントニューラルモデル (6) 0.79
DM PAS 81.1 79.0 94.4 93.0 94.3 93.8 94.5 94.8 DM PAS 81.1 79.0 94.4 93.0 94.3 93.8 94.5 94.8 0.48
PSD AMR 67.8 70.8 75.0 80.0 75.2 81.7 82.7 76.5 PSD AMR 67.8 70.8 75.0 80.0 75.2 81.7 82.7 76.5 0.48
Table 1: Baseline comparisons on the development sets (3 source names in all experiments). 表1: 開発セットのベースライン比較(すべての実験で3つのソース名)。 0.79
7 Evaluation 7.1 Setup We evaluate parsing accuracy on the graphbanks DM, PAS, and PSD from the SemEval 2015 shared task on Semantic Dependency Parsing (SDP, Oepen et al (2015)) and on the AMRBank LDC2017T10 (Banarescu et al , 2013). 7 評価 7.1設定 セマンティック依存解析(sdp, oepen et al (2015))とamrbank ldc2017t10 (banarescu et al , 2013)に関するsemeval 2015の共有タスクから、graphbanks dm, pas, psdのパース精度を評価する。
訳抜け防止モード: 7 評価 7.1 SemEval 2015 Share Task on Semantic Dependency Parsing (SDP, Oepen et al (2015)) のグラフバンク DM, PAS, PSD における解析精度を評価する。 そして、AMRBank LDC2017T10 ( Banarescu et al, 2013)。
0.78
We follow Lindemann et al (2019) in the choice of neural architecture, in particular using BERT (Devlin et al , 2019) embeddings, and in the choice of decoder, hyperparameters and pre- and postprocessing (we train the model of §6 for 100 instead of 40 epochs, since it is slower to converge than supervised training). 神経アーキテクチャの選択、特にbert(devlin et al , 2019)埋め込み、デコーダ、ハイパーパラメータ、プリおよびポストプロセッシング(監督されたトレーニングよりも収束が遅いため、40エポックではなく100で6のモデルをトレーニングする)の選択についてlindemannら(2019)に従う。
訳抜け防止モード: 我々は、ニューラルネットワークの選択においてLindemann氏ら(2019)に従う。 特にBERT (Devlin et al, 2019 ) 埋め込みを使用する。 そしてデコーダ、ハイパーパラメータ、前処理と後処理を選択します(40エポックではなく、100に対して = 6のモデルをトレーニングします)。 監督訓練よりも収束が遅いため)
0.65
When a graph G is non-decomposable using our blob partition, i.e. グラフ g がブロブ分割を使って分解できない場合、すなわち、 0.65
if there is no well-typed AM dep-tree T that evaluates to G, and so the condition of Theorem 2 does not hold, then we remove that graph from the training set. G を評価できる十分に型付けされた AM dep-tree T が存在しなければ、定理 2 の条件は成り立たないので、そのグラフをトレーニングセットから取り除く。 0.80
(This does not affect coverage at evaluation time.) (これは評価時のカバレッジには影響しない。) 0.76
This occurs rarely, affecting e g about 1.6% of graphs in the PSD training set. これはまれに起こり、psdトレーニングセットのグラフの約1.6%に影響を及ぼす。 0.80
Like (Lindemann et al , 2019), we use the heuristic AMR alignments of (Groschwitz et al , 2018). Lindemann et al , 2019 のように、私たちは(Groschwitz et al , 2018)のヒューリスティックな AMR アライメントを使用します。 0.79
These alignments can yield multi-node constants. これらのアライメントは多重ノード定数をもたらす。 0.54
In those cases, we first run the algorithm of Section 4 to obtain an AM tree with placeholder source names, and then consolidate those constants that are aligned to the same word into one constant, effectively collapsing segments of the AM tree into a single constant. これらの場合、まずセクション4のアルゴリズムを実行して、プレースホルダーのソース名を持つAMツリーを取得し、それから同じ単語に整列した定数を1つの定数に集約し、AMツリーのセグメントを1つの定数に分解する。 0.75
We then construct the tree automata of Section 5 as normal. 次に、セクション5のツリーオートマトンを正規として構築する。 0.62
7.2 Results We consider three baselines. 7.2 結果 3 つの基準を考える。 0.58
Each of these chooses a single tree for each training instance from the tree automata and performs supervised training. これらはそれぞれ、tree automataからトレーニングインスタンス毎にひとつのツリーを選択し、教師付きトレーニングを実行する。 0.69
The random trees baseline samples a tree for each sentence from its automaton, uniformly at random. ランダムツリーは、ランダムにランダムに、そのオートマトンから各文のツリーをベースラインとしてサンプリングする。 0.67
In the random weights baseline, we fix a random weight for each graph constant and edge label, globally across the corpus, and select the highestscoring tree for each sentence. ランダム重みベースラインでは、各グラフ定数とエッジラベルのランダム重みをコーパス全体に固定し、各文の最高スコア木を選択する。
訳抜け防止モード: ランダム重みベースラインでは、各グラフ定数とエッジラベルに対してランダム重みを固定する。 コーパス全体にまたがって、各文の最高スコア木を選択する。
0.71
The EM weights baseline instead optimizes these global weights with the inside-outside algorithm. em重みのベースラインは代わりに、これらのグローバル重みを内外アルゴリズムで最適化する。 0.59
英語(論文から抽出)日本語訳スコア
He and Choi (2020) FG’20 Bevilacqua et al (2021) L’19, w/o MTL This work He and Choi (2020) FG’20 Bevilacqua et al (2021) L’19, w/o MTL この作業 0.91
DM PAS id F 94.6 94.493.9±0.1 94.2±0.0 DM PAS id F 94.6 94.493.9±0.1 94.2±0.0 0.67
ood F 90.8 91.090.3±0.1 90.2±0.1 F 90.8 91.090.3±0.1 90.2±0.1 0.33
id F 96.1 95.194.5±0.1 94.6±0.0 id F 96.1 95.194.5±0.1 94.6±0.0 0.32
ood F 94.4 93.492.5±0.1 92.7±0.1 F94.493.492.5±0.192.7±0.1 0.35
PSD id F 86.8 82.682.0±0.1 81.4±0.1 (75.8±0.1) PSD id f 86.8 82.682.0±0.1 81.4±0.1 (75.8±0.1) 0.59
ood F 79.5 82.081.5±0.3 80.7±0.4 (74.1±0.1) F79.5 82.081.5±0.3 80.7±0.4(74.1±0.1) 0.34
AMR 17 Smatch F84.5 76.3±0.2 75.1±0.2 (74.2±0.3) AMR 17 Smatch F84.5 76.3±0.2 75.1±0.2 (74.2±0.3) 0.38
Table 2: Semantic parsing accuracies (id = in domain test set; ood = out of domain test set). 表2: Semantic parsing accuracies (id = in domain test set; ood = out of domain test set) 0.78
Results for our work are averages of three runs with standard deviations. 私たちの仕事は、標準偏差で平均3回実行されます。 0.63
L’19 are results of Lindemann et al (2019) with fixed tree decoder (incl. l'19はlindemann et al (2019) と固定木デコーダ (incl) の結果である。 0.81
post-processing bugfix for AMR as per Lindemann et al (2020)). Lindemann et al (2020) による AMR のポストプロセッシングバグフィックス。 0.61
FG’20 is Fern´andez-Gonz´alez and G´omez-Rodr´ıguez (2020). FG’20 は Fern ́andez-Gonz ́alez と G ́omez-Rodr ́ıguez (2020) である。 0.50
Table 1 compares the baselines and the joint neural method. 表1はベースラインとジョイントニューラルメソッドを比較します。 0.80
Random trees perform worst – consistency across the corpus matters. ランダムツリーは最悪です – コーパス全体の一貫性です。 0.63
The difference between random weights and EM is suprisingly small, despite the EM algorithm converging well. EMアルゴリズムがよく収束しているにもかかわらず、ランダムウェイトとEMの差は極めて小さい。 0.76
The joint neural learning outperforms the baselines on all graphbanks; we analyze this in § 8. ジョイントニューラルラーニングはすべてのグラフバンクのベースラインを上回り、これを8で解析する。 0.64
We also experimented with different numbers of sources, finding 3 to work best for DM, PAS and AMR, and 4 for PSD (all results in Appendix C). また,dm,pas,amrでは3つ,psdでは4つ,appendix cでは4つ,さまざまなソースを実験した。
訳抜け防止モード: また、異なる情報源で実験を行い、3。 DM、PAS、AMRに最適です。 と 4 は PSD (すべての結果が Appendix C で) である。
0.68
Table 2 compares the accuracy of our joint model to Lindemann et al (2019) and to the state of the art on the respective graphbanks. 表2は、我々のジョイントモデルの精度をLindemann et al (2019) と比較し、各グラフバンク上のアートの状態と比較する。 0.75
Our model is competitive with the state-of-the-art on most graphbanks. 私たちのモデルは、ほとんどのグラフバンクの最先端と競合しています。 0.46
In particular, our parsing accuracy is on par with Lindemann et al (2019), who perform supervised training with hand-crafted heuristics. 特に、解析精度はLindemann et al (2019)と同等であり、手作りのヒューリスティックスを用いて教師付きトレーニングを行う。 0.58
This indicates that our model learns appropriate source names. これはモデルが適切なソース名を学習することを示している。 0.57
Grahbank-specific pre- and processing. Grahbank固有のプリ・アンド・プロセッシング。 0.53
The pre- and postprocessing steps of (Lindemann et al , 2019) we use still rely on two graphbank-specific heuristics, that directly relate to AM depenency trees: in PSD, it includes a simple but effective step to make coordination structures more compatible with the specific flavor of application and modification of AM dependency trees. 私たちが使用している(Lindemann et al , 2019)前処理と後処理のステップは、依然として2つのグラフバンク固有のヒューリスティックに依存しており、これは、AM優越木に直接関係している。
訳抜け防止モード: 私たちが使っている前処理と後処理のステップ(lindemann et al, 2019)はまだ2つのグラフバンク - 特定のヒューリスティックスに依存しています。 am欠落木と直接関係する : psdでは、単純だが効果的なステップを含む アプリケーションの特定のフレーバーやam依存性ツリーの修正とより互換性のあるコーディネーション構造を実現する。
0.65
In AMR it includes a step to remove some edges related to coreference (a non-compositional source of reentrancy). AMRでは、コア参照(非構成的再帰源)に関連するいくつかのエッジを削除するステップを含む。
訳抜け防止モード: AMRでは、ステップを含む to remove some edges related to coreference (a non- compositional source of reentrancy )
0.86
We include in brackets the results without those two preprocessing steps. この2つの前処理ステップなしで結果を括弧に入れます。 0.64
The drop in performance for PSD indicates that while for the most part our method is graphbank-independen t, not all shapes of graphs are equally suited for AM dependency-parsing and some preprocessing to bring the graph ‘into shape’ can still be important. PSDの性能低下は、我々の手法はグラフバンクに依存しないが、全てのグラフがAM依存パーシングに等しく適合しているわけではなく、グラフを‘形に’する前処理が重要であることを示している。 0.75
For AMR, keeping the co-reference based edges leads to AM trees that resolve those reentrancies with the AM type system. AMRでは、共参照ベースのエッジを維持することは、AM型システムとのそれらの再帰を解消するAMツリーにつながる。 0.59
That is, the algorithm ‘invents’ ad-hoc compositional explanations for a つまりアルゴリズムは、aのアドホックな構成説明を‘発明’する。 0.64
non-compositional phenomenon, yielding graph constants with type annotations that do not generalize well. 非合成現象は、一般化しない型アノテーションでグラフ定数を出力する。 0.73
The corresponding drop in performance indicates that extending AM dependency parsing to handle coreference will be an important future step when parsing AMR; some work in that direction has already been undertaken (Anikina et al , 2020). パフォーマンスの低下は、コア参照を処理するためにAM依存性のパースを拡張することが、AMRをパースする際の重要な将来のステップであることを示している。
訳抜け防止モード: パフォーマンスの低下が示すのは AMRを解析する際には、コア参照を処理するためにAM依存性のパースを拡張することが重要な将来のステップとなる。 Anikina et al, 2020)。
0.61
8 Linguistic Analysis As AM parsing is inherently interpretable, we can explore linguistic properties of the learned graph constants and trees. 8 言語分析 AM解析は本質的に解釈可能であるので、学習したグラフ定数とツリーの言語的性質を探索することができる。 0.69
We find that the neural method makes use of both syntax and semantics. ニューラルメソッドが構文とセマンティクスの両方を利用していることが分かりました。 0.61
We compute for each sentence in the training set the best tree from its tree automaton, according to the neural weights of the best performing epoch. 学習中の各文に対して,その木オートマトンから最高の木を計算し,最高パフォーマンス時代の神経重みに応じて計算する。 0.64
We then sample trees from this set for handanalysis (see Appendix A), to examine whether the model learned consistent sources for subjects and objects. 次に、この集合から木をサンプリングして手分析を行い(付録 a を参照)、モデルが対象と対象の一貫した情報源を学習したかどうかを調べる。 0.60
We find that while the EM method uses highly consistent graph constants and AM operations, the neural method, which has access to the strings, sacrifices some graph constant and operation consistency in favour of syntactic consistency. EM法は高度に一貫したグラフ定数とAM演算を用いるが,文字列へのアクセスが可能なニューラル手法では,構文整合性を支持するためにグラフ定数と操作整合性を犠牲にしている。 0.73
Syntactic Subjects and Objects. 主題と対象を統括する。 0.47
In the active sentence The fairy charms the elf, the phrase the fairy is the syntactic subject and the elf the syntactic object. 活発な文 妖精はエルフを魅了し、妖精はシンタクティックな主題であり、エルフはシンタクティックな対象である。
訳抜け防止モード: 能動的文では、妖精はエルフやフレーズを魅了する フェアリーは統語的主語であり、elfは統語的対象である。
0.62
In the passive The elf is charmed (by the fairy), the phrase the elf is now the syntactic subject, even though in both sentences, the fairy is the charmer and the elf the charmee. 受動的にelfは(妖精によって)チャーミングされるが、両方の文において妖精はチャーマーであり、elfはチャーキーであるにもかかわらず、elfは構文主題である。
訳抜け防止モード: 受動的にelfは(妖精によって)魅了される。 elfというフレーズは現在、構文的な主題である。 どちらの文でも妖精は魅力であり、エルフは魅力である。
0.73
Similarly, the fairy is the syntactic subject in the intransitive sentence The fairy glows. 同様に、妖精は不翻訳文『妖精が光る』の統語的主語である。 0.58
Intra-Phenomenon Consistency. フェノメノン内一貫性。 0.41
For both the EM and neural method, we found completely consistent source allocations for active transitive verbs in all four sembanks. EM法とニューラル法の両方において,4つのセムバンクでアクティブな推移動詞に対する完全一貫したソースアロケーションが発見された。 0.56
These source allocations were also the overwhelming favourite graph constants for two-argument predicates (72-92%), and これらのソースアロケーションは、2項述語(72-92%)の圧倒的なグラフ定数でもあった。 0.63
英語(論文から抽出)日本語訳スコア
the most common sources used by Apply operations (94-98%). Apply操作で使用される最も一般的なソース(94-98%)。 0.72
For example, in AMR, the graph constant template in Fig 8a appears 26,653 times in the neural parser output. 例えば、AMRでは、Fig 8aのグラフ定数テンプレートがニューラルパーサー出力の26,653倍に現れる。 0.65
74% of these used sources x = S1 and y = S2 (from S = {S1, S2, S3}). これらの使用源の74%は x = S1 と y = S2 である(S = {S1, S2, S3} から)。 0.79
All active transitive sentences in our sample used this source allocation, so we call this the active graph constant (e g G-charm in Fig 2) and refer to the sources S1 and S2 as S and O respectively, for subject and object. サンプル中のすべてのアクティブ推移文がこのソース割り当てを使用しており、これをアクティブグラフ定数(図2のg-charmなど)と呼び、ソースs1とs2をそれぞれsとoと呼び、対象と対象とします。 0.75
All four sembanks showed this kind of consistency; when we refer to S and O sources below, we mean whichever two sources displayed the same behaviour as S1 and S2 in AMR. 4つのセムバンクはいずれもこのような一貫性を示しており、下記のSとOのソースを参照すると、AMRではS1とS2と同じ挙動を示した2つのソースを指します。 0.64
All four graphbanks are also highly consistent in their modifiers: classical modifiers such as adjectives are nearly universally adjoined with one consistent source – we refer to it as M – and MODM is the overwhelming favourite (90-99%) for MOD operations. 形容詞のような古典的な修飾子は、ほぼ普遍的に1つの一貫した情報源(M と呼ぶ)と結びついており、MODM は MOD 演算において圧倒的に有利な (90-99%) である。 0.74
Cross-Phenomenon Consistency. クロスフェノメノン一貫性。 0.47
We call a parser syntactically consistent if its syntactic subjects fill the S slot, regardless of their semantic role. 意味的役割に関係なく,構文対象がsスロットを満たしている場合,構文的に一貫性のある構文解析器と呼ぶ。 0.58
A syntactically consistent parser would acquire the AMR in Fig 8c from the active sentence by the analysis in Fig 8b, and from the passive sentence by the analysis in Fig 8d, with the passive constant G-charmP from Fig 2. 構文的に整合性のあるパーサーは、図8bの分析によるアクティブ文から図8cのAMRを取得し、図8dの分析による受動的文から図2からの受動的定数G-charmPを取得する。 0.76
The neural parser is syntactically consistent: in all sembanks, it uses the same source S for syntactic subjects in passives as for actives. ニューラルパーサは構文的に一貫性があり、全てのsembanksでは、アクティブスと同様、パッシブスでは同じソースsを使用する。 0.58
EM, conversely, prefers to use the same graph constants for active and passives, flipping the APP edges to produce syntactically inconsistent trees as in Fig 8e. 逆にEMは、アクティブとパッシブに同じグラフ定数を使うことを好み、APPエッジを反転させて、図8eのように構文的に一貫性のない木を生成する。 0.54
Single-argument predicates are also syntactically consistent in the neural model, using S for subjects and O for objects, while EM picks one source. 単一言語述語も神経モデルにおいて構文的に一貫性があり、sは対象に、oは対象に、emは1つのソースを選択する。 0.48
The heuristics in Lindemann et al (2019) have passive constants, but use them only when forced to, e g when coordinating active and passive. Lindemann et al (2019) のヒューリスティックは受動的定数を持つが、例えば能動的かつ受動的にコーディネートする場合などにのみ使用される。 0.67
(cid:80) Finally, we compute the entropy of the graph constants for the best trees of the training set as G f (g) ln f (G), where f (G) is the frequency of constant G in the trees.The entropies are between 2 and 3 nats, but are consistently lower for EM than the neural method, by 0.031 to 0.079 nats. (cid:80) 最後に、トレーニングセットの最良の木に対するグラフ定数のエントロピーを G f (g) ln f (G) として計算し、ここで f (G) は木内の定数 G の周波数であり、エントロピーは 2 から 3 個のナットの間であるが、ニューラルメソッドよりも一貫して EM に対して 0.031 から 0.079 ナット以下である。 0.77
Considering that the neural method achieves higher parsing accuracies, using the most common graph constants and edges possible evidently is not always optimal for performance. ニューラルネットワークが高い解析精度を達成することを考えると、最も一般的なグラフ定数とエッジを用いることは、必ずしも性能に最適とは限らない。 0.63
The syntactic regularities exploited by the neural method may contribute to its improved performance. ニューラルメソッドによって利用される構文規則性は、その性能向上に寄与する可能性がある。 0.49
G-charm APPS G-fairy G‐charm APPS G‐fairy 0.63
APPO G-elf (a) Transitive constants, with label z and sources x, y APPO Gelf (a)ラベル z とソース x, y を持つ推移定数 0.63
The fairy charms the elf 妖精の魅力 エルフ 0.48
(b) Active sentence defines S and O b) アクティブな文 S と O を定義する 0.89
G-charmP APPS G-elf G‐charmP APPS Gelf 0.59
APPO G-fairy APPO G‐fairy 0.69
(c) for sentences AMR both (c)文について AMR 0.57
The elf is charmed by the elf (複数形 elfs) 0.48
fairy (d) Neural analysis of passive sentences mirrors surface syntax 妖精 (d)受動文ミラー表面の構文解析 0.60
G-charm APPO G-elf G‐charm APPO Gelf 0.57
APPS G-fairy APPS G‐fairy 0.70
The elf is charmed by the elf (複数形 elfs) 0.48
fairy (e) EM analysis of passives uses APPO for syntactic subject 妖精 (e)appoを用いた受動者のem分析 0.55
Figure 8: AMR examples of active and passive. 図8: amr アクティブとパッシブの例。 0.67
See Fig. 2 for graph constants. 図を参照。 グラフ定数は2。 0.73
9 Conclusion In this work, we presented a method to obtain the compositional structures for AM dependency parsing that relies much less on graphbank-specific heuristics written by experts. 9 結論 本稿では,専門家が作成したグラフバンク固有のヒューリスティックスに依存しない,AM依存解析のための構成構造を求める手法を提案する。 0.75
Our neural model learns linguistically meaningful argument slot names, as shown by our manual evaluation; in this regard, our model learns to do the job of the linguist. 我々のニューラルネットワークは言語学的に意味のある引数スロット名を学習し、手作業による評価で示されるように、我々のモデルは言語学者の仕事の仕方を学ぶ。 0.65
High parsing performance across graphbanks shows that the learned compositional structures are also well-suited for practical applications, promising easier adaptation of AM dependency parsing to new graphbanks. グラフバンク間の高い解析性能は、学習された構成構造が実用的な用途にも適していることを示し、新しいグラフバンクへのAM依存性解析の容易な適応を約束する。 0.56
Acknowledgments We would like to thank the anonymous reviewers as well as Lucia Donatelli, Pia Weißenhorn and Matthias Lindemann for their thoughtful comments. 承認 匿名のレビュアー、Lucia Donatelli氏、Pia Weißenhorn氏、Matthias Lindemann氏も、彼らの思慮深いコメントに感謝します。 0.66
This research was in part funded by the Deutsche Forschungsgemeinscha ft (DFG, German Research Foundation), project KO 2916/2-2, and by the Dutch Research Council (NWO) as part of the project Learning Meaning from Structure (VI.Veni.194.057). この研究はドイツ研究財団(DFG, German Research Foundation)、KO 2916/2-2プロジェクト、そしてオランダ研究評議会(NWO)によって、構造から学ぶことのプロジェクト(VI.Veni.194.057)の一部として資金提供された。 0.73
zxARG0yARG1charmfair yARG0elfARG1 zxARG0yARG1charmfair yARG0elARG1 0.26
英語(論文から抽出)日本語訳スコア
References Tatiana Anikina, Alexander Koller, and Michael Roth. 参照: Tatiana Anikina、Alexander Koller、Michael Roth。 0.74
Predicting coreference in Abstract Mean2020. Abstract Mean2020におけるコア推論の予測。 0.55
In Proceedings of the Third ing Representations. 第3回 ing会議の議事録に載る。 0.49
Workshop on Computational Models of Reference, Anaphora and Coreference, pages 33–38, Barcelona, Spain (online). workshop on computational models of reference, anaphora and coreference, pages 33–38, barcelona, spain (online) を参照。 0.87
Association for Computational Linguistics. Yoav Artzi, Kenton Lee, and Luke Zettlemoyer. 計算言語学会会員。 Yoav Artzi、Kenton Lee、Luke Zettlemoyer。 0.57
2015. Broad-coverage CCG Semantic Parsing with AMR. 2015. AMRを用いた広帯域CCGセマンティックパーシング 0.75
In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. 自然言語処理における経験的手法に関する2015年会議のまとめ 0.77
J. K. Baker. 1979. J・K・ベイカー 1979. 0.74
Trainable grammars for speech recognition. 音声認識のための訓練可能な文法。 0.58
The Journal of the Acoustical Society of America, 65(S1):S132–S132. The Journal of the Acoustical Society of America, 65 (S1): S132–S132 0.91
Laura Banarescu, Claire Bonial, Shu Cai, Madalina Georgescu, Kira Griffitt, Ulf Hermjakob, Kevin Knight, Philipp Koehn, Martha Palmer, and Nathan Schneider. Laura Banarescu, Claire Bonial, Shu Cai, Madalina Georgescu, Kira Griffitt, Ulf Hermjakob, Kevin Knight, Philipp Koehn, Martha Palmer, Nathan Schneider 0.77
2013. Abstract Meaning Representation for Sembanking. 2013. セムバンクにおける抽象的意味表現 0.74
In Proceedings of the 7th Linguistic Annotation Workshop and Interoperability with Discourse. 第7回言語アノテーションワークショップの成果と談話との相互運用性 0.72
Michele Bevilacqua, Rexhina Blloshmi, and Roberto Navigli. Michele Bevilacqua、Rexhina Blloshmi、Roberto Navigli。 0.68
2021. One SPRING to rule them both: Symmetric AMR semantic parsing and generation In Proceedings of without a complex pipeline. 2021. 対称的なamrセマンティクスと複雑なパイプラインのないプロシージャの生成である。
訳抜け防止モード: 2021. 両者を統括する1つの春 : 対称的amr意味解析 複雑なパイプラインのない 手続きにおける生成です
0.78
AAAI. Shu Cai and Kevin Knight. AAAI シュ・ケイとケビン・ナイト 0.52
2013. Smatch: an evaluation metric for semantic feature structures. 2013. smatch: 意味的特徴構造の評価指標。 0.78
In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 748–752, Sofia, Bulgaria. 第51回計算言語学会年次大会(Volume 2: Short Papers), 748-752頁, Sofia, Bulgaria 0.56
Association for Computational Linguistics. Yufei Chen, Weiwei Sun, and Xiaojun Wan. 計算言語学会会員。 Yufei Chen、Wewei Sun、Xiaojun Wan。 0.59
2018. AcIn Proceedcurate SHRG-based semantic parsing. 2018. AcIn Proceedcurate SHRGベースの意味解析。 0.76
ings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 408–418, Melbourne, Australia. 第56回計算言語学会年次大会(Volume 1: Long Papers), 408-418, Melbourne, Australia 0.53
Association for Computational Linguistics. Hubert Comon, Max Dauchet, R´emi Gilleron, Florent Jacquemard, Denis Lugiez, Sophie Tison, Marc Tree AuTommasi, and Christof L¨oding. 計算言語学会会員。 Hubert Comon, Max Dauchet, R ́emi Gilleron, Florent Jacquemard, Denis Lugiez, Sophie Tison, Marc Tree AuTommasi, Christof L soding。 0.69
2007. tomata techniques and applications. 2007年 トマタ技術と応用。 0.64
published online - http://tata.gforge.i nria.fr/. オンライン公開 - http://tata.gforge.i nria.fr/ 0.45
Ann Copestake and Dan Flickinger. Ann CopestakeとDan Flickinger。 0.80
2000. An opensource grammar development environment and broad-coverage english grammar using HPSG. 2000. HPSGを用いたオープンソース文法開発環境と広範囲文法 0.76
In Proceedings of the Second conference on Language Resources and Evaluation (LREC). 第2回言語資源・評価会議(LREC)に参加して 0.67
Bruno Courcelle and Joost Engelfriet. Bruno CourcelleとJoost Engelfriet。 0.80
2012. Graph Structure and Monadic Second-Order Logic, a Language Theoretic Approach. 2012. グラフ構造とモナディック二階論理、言語理論のアプローチ。 0.80
Cambridge University Press. ケンブリッジ大学出版局。 0.68
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova 0.76
2019. BERT: Pre-training of deep bidirectional transformers for language underIn Proceedings of the 2019 Conference standing. 2019. BERT: 2019年開催のProceedings of the 2019 Conferenceにおいて、言語の下での双方向トランスフォーマーの事前トレーニング。 0.71
of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171–4186, Minneapolis, Minnesota. The North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 4171–4186, Minneapolis, Minnesota. 0.85
Association for Computational Linguistics. Jason Eisner. 計算言語学会会員。 Jason Eisner 0.56
2016. Inside-outside and forwardbackward algorithms are just backprop (tutorial paper). 2016. インサイド・アウトサイドとフォワード・バックワードのアルゴリズムは単なるバックプロップ(論文)である。 0.68
In Proceedings of the Workshop on Structured Prediction for NLP, pages 1–17. In Proceedings of the Workshop on Structured Prediction for NLP, page 1–17。 0.88
Federico Fancellu, Sorcha Gilroy, Adam Lopez, and Semantic graph parsing Mirella Lapata. Federico Fancellu, Sorcha Gilroy, Adam Lopez, Semantic graph parsing Mirella Lapata。 0.74
2019. with recurrent neural network DAG grammars. 2019年、リカレントニューラルネットワークDAG文法を導入。 0.61
In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 2769– 2778, Hong Kong, China. 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP, 2769–2778), in Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), page 2769–2778, China, Hong Kong, China。
訳抜け防止モード: 自然言語処理における経験的手法に関する2019年会議のまとめ 第9回国際自然言語処理国際会議(EMNLP - IJCNLP)に参加して 2769年 - 2778年、香港、中国。
0.80
Association for Computational Linguistics. Daniel Fern´andez-Gonz´alez 計算言語学会会員。 Daniel Fern ́andez-Gonz ́alez 0.46
and Carlos G´omezRodr´ıguez. カルロス・G・ロッド(Carlos G'omezRodr)とも。 0.25
2020. Transition-based semantic In dependency parsing with pointer networks. 2020. 遷移に基づく意味 ポインタネットワークによる依存性解析。 0.78
the Proceedings of the 58th Annual Meeting of Association for Computational Linguistics, pages 7035–7046, Online. the proceedings of the 58th annual meeting of association for computational linguistics, pages 7035–7046, online (英語) 0.80
Association for Computational Linguistics. Dan Flickinger, Jan Hajiˇc, Angelina Ivanova, Marco Kuhlmann, Yusuke Miyao, Stephan Oepen, and Daniel Zeman. 計算言語学会会員。 Dan Flickinger、Jan Haji'c、Angelina Ivanova、Marco Kuhlmann、Yusuke Miyao、Stephan Oepen、Daniel Zeman。 0.64
2017. LINDAT/CLARIN digital library at the Institute of Formal and Applied Linguistics ( ´UFAL), Faculty of Mathematics and Physics, Charles University. 2017. LINDAT/CLARINデジタルライブラリー (Institute of Formal and Applied Linguistics, ; UFAL) チャールズ大学数学物理学部。 0.79
Open SDP 1.2. オープンSDP1.2。 0.66
Jonas Groschwitz. ジョナス・グロシュヴィッツ。 0.49
2019. Methods for taking semantic graphs apart and putting them back together again. 2019. セマンティックグラフを分離し、それらを再びまとめ直す方法。 0.73
Ph.D. thesis, Macquarie University and Saarland University. 博士論文、マッコーリー大学、サーランド大学。 0.62
Jonas Groschwitz, Meaghan Fowlie, Mark Johnson, and Alexander Koller. Jonas Groschwitz、Meaghan Fowlie、Mark Johnson、Alexander Koller。 0.70
2017. A constrained graph algebra for semantic parsing with AMRs. 2017. AMRを用いた意味解析のための制約付きグラフ代数 0.78
In IWCS 2017 - 12th International Conference on Computational Semantics - Long papers. IWCS 2017 - 12th International Conference on Computational Semantics - Long papers 0.74
Jonas Groschwitz, Matthias Lindemann, Meaghan Fowlie, Mark Johnson, and Alexander Koller. Jonas Groschwitz、Matthias Lindemann、Meaghan Fowlie、Mark Johnson、Alexander Koller。 0.71
2018. AMR Dependency Parsing with a Typed Semantic Algebra. 2018. Typed Semantic Algebraを用いたAMR依存性解析 0.77
In Proceedings of ACL. Ann Copestake, Alex Lascarides, and Dan Flickinger. ACLの略。 Ann Copestake、Alex Lascarides、Dan Flickinger。 0.59
2001. An algebra for semantic construction in In Proceedings of the constraint-based grammars. 2001. In Proceedings of the constraint-based grammars における意味構成の代数学 0.81
39th ACL. Serhii Havrylov, Germ´an Kruszewski, and Armand Joulin. 39th ACL。 Serhii Havrylov、Germ ́an Kruszewski、Armand Joulin。 0.80
2019. Cooperative learning of disjoint syntax and semantics. 2019. 統合構文と意味論の協調学習 0.73
In Proceedings of the 2019 Conference of the North American Chapter of the Asso- 2019年アスソ北米支部大会の議事録- 0.41
英語(論文から抽出)日本語訳スコア
ciation for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 1118–1128, Minneapolis, Minnesota. ciation for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 1118–1128, Minneapolis, Minnesota 0.82
Association for Computational Linguistics. Han He and Jinho Choi. 計算言語学会会員。 ハン・ヘーとジンホ・チョイ 0.45
2020. Establishing strong baselines for the new decade: Sequence tagging, syntactic and semantic parsing with BERT. 2020. 新しい10年間の強力なベースラインを確立する: bertによるシーケンスタグ付け、構文解析、セマンティック解析。 0.70
In The Thirty-Third International Flairs Conference. 第33回国際フレア会議に出席した。 0.51
Jonathan Herzig and Jonathan Berant. ジョナサン・ヘルツィヒとジョナサン・ベラント。 0.47
2020. Spanbased semantic parsing for compositional generalization. 2020. 合成一般化のためのスパンベース意味解析 0.67
Nikita Kitaev and Dan Klein. ニキータ・キタエフとダン・クライン 0.56
2018. Constituency parsIn Proceedings ing with a self-attentive encoder. 2018. Constituency parsIn Proceedings ing with a self-attentive encoder. 0.92
of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 2676–2686, Melbourne, Australia. 第56回計算言語学会年次大会(Volume 1: Long Papers), 2676-2686, Melbourne, Australia 0.57
Association for Computational Linguistics. Matthias Lindemann, Jonas Groschwitz, and Alexander Koller. 計算言語学会会員。 Matthias Lindemann、Jonas Groschwitz、Alexander Koller。 0.60
2019. Compositional semantic parsing across graphbanks. 2019. グラフバンク間の合成意味解析 0.73
In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4576–4585, Florence, Italy. 第57回計算言語学会年次大会(第57回)、4576-4585頁、イタリアのフィレンツェ。 0.58
Association for Computational Linguistics. Matthias Lindemann, Jonas Groschwitz, and Alexander Koller. 計算言語学会会員。 Matthias Lindemann、Jonas Groschwitz、Alexander Koller。 0.60
2020. Fast semantic parsing with wellIn Proceedings of the 2020 typedness guarantees. 2020. 2020年のタイプドネス保証に関するwellin proceedingsによる高速意味解析。 0.74
Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 3929–3951, Online. Empirical Methods in Natural Language Processing (EMNLP), page 3929–3951, Online. 0.73
Association for Computational Linguistics. Jean Maillard, Stephen Clark, and Dani Yogatama. 計算言語学会会員。 Jean Maillard、Stephen Clark、Dani Yogatama。 0.60
2019. Jointly learning sentence embeddings and syntax with unsupervised tree-LSTMs. 2019. 教師なし木LSTMを用いた文埋め込みと構文の併用学習 0.73
Natural Language Engineering, 25(4). 自然言語工学、25(4)。 0.71
Stephan Oepen, Marco Kuhlmann, Yusuke Miyao, Daniel Zeman, Silvie Cinkov´a, Dan Flickinger, Jan Hajiˇc, and Zdeˇnka Ureˇsov´a. Stephan Oepen, Marco Kuhlmann, Yusuke Miyao, Daniel Zeman, Silvie Cinkov ́a, Dan Flickinger, Jan Haji'c, Zde'nka Ure'sov ́a 0.82
2015. Semeval 2015 task 18: Broad-coverage semantic dependency parsing. 2015. semeval 2015タスク18: 広範囲なセマンティック依存構文解析。 0.79
In Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval 2015). 第9回セマンティック・アセスメント国際ワークショップ(SemEval 2015)に参加して 0.72
Xiaochang Peng, Linfeng Song, and Daniel Gildea. Xiaochang Peng、Linfeng Song、Daniel Gildea。 0.67
2015. A synchronous hyperedge replacement grammar based approach for AMR parsing. 2015. AMR解析のための同期ハイパーエッジ置換文法に基づくアプローチ 0.82
In Proceedings of the 19th Conference on Computational Language Learning. 第19回計算言語学習会議の開催にあたって 0.72
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, undefinedukasz Kaiser, and Illia Polosukhin. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, undefinedukasz Kaiser, Illia Polosukhin 0.75
2017. Attention is all you need. 2017. 注意はあなたが必要とするすべてです。 0.74
In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS’17, page 6000–6010, Red Hook, NY, USA. The 31st International Conference on Neural Information Processing Systems, NIPS’17, page 6000–6010, Red Hook, NY, USA (英語) 0.85
Curran Associates Inc. Curran Associates Inc. 0.85
英語(論文から抽出)日本語訳スコア
A Sampling Method for hand analysis To sample trees, we compute for each sentence in the training set the best tree from its tree automaton, according to the neural weights of the best performing epoch. サンプル木に対する手分析のサンプリング手法として, 学習中の各文に対して, 最良木を木オートマトンから抽出し, 最良木を, 最良木群の神経重みに応じて計算する。 0.71
This ensures the AM trees evaluate to the correct graph. これにより、AMツリーが正しいグラフに評価される。 0.69
We then sample trees from this set for hand-analysis. 次に、このセットから木をサンプルして手分析します。 0.54
To get relevant sentences, we sampled 5-to-15word sentences with graph constants from the following six categories: Transitive verbs: graph constants with a labeled root and two arguments with edges labelled as in Table 3: 関連文を得るために,5から15ワードのグラフ定数を以下の6つのカテゴリからサンプリングした: 推移動詞: ラベル付きルートを持つグラフ定数と,テーブル3にラベル付きエッジを持つ2つの引数。 0.70
Sembank AMR DM PAS PSD セムバンク AMR DM PAS PSD 0.72
subject ARG0 ARG1 subject ARG0 ARG1 0.78
object ARG1 ARG2 オブジェクト ARG1 ARG2 0.77
verb ARG1 ACT arg 動詞 ARG1 ACT arg 0.91
verb ARG2 PAT arg 動詞 ARG2 PAT arg 0.91
Table 3: Transitive verbs As explained in the main text, we define the active constants as those with the most common source allocation, and the passive constants as those with the active source allocation flipped. 表3:推移動詞 メインテキストで説明されているように、アクティブ定数を最も一般的なソースアロケーションを持つもの、パッシブ定数をアクティブソースアロケーションを持つもの、と定義する。 0.69
We sampled both active and passive source allocations. アクティブおよびパッシブソースアロケーションの両方をサンプリングした。 0.63
Verbs with one argument: Graph constants just like the transitive ones but lacking one of the arguments. グラフ定数は推移的なものと同じだが、引数の1つが欠けている。 0.61
There are four of these, given both source allocations. これらのうち4つは、ソースの割り当てを考慮に入れている。 0.57
Generally these graph constants are used for more than just verbs; for each of the six categories we sampled until we had ten relevant sentences. 一般的に、これらのグラフ定数は動詞だけでなく、6つのカテゴリのそれぞれについて、10つの関連する文があるまでサンプルした。 0.62
We visualised the AM trees and categorised the phenomena, for example active or passive verbs, nominalised verbs, imperatives, relative clauses, gerund modifiers, and so forth. 我々は,AM木を可視化し,能動動詞や受動動詞,名詞動詞,命令文,相対節,接種修飾詞などの現象を分類した。 0.79
To answer the question of whether the parser used consistent constants for active and passive transitive sentences, we sampled until we had ten sentences with active or passive main verbs. パーサーがアクティブ・パッシブ・トランジッシブ・文に対して一貫した定数を用いたかという疑問に答えるために、アクティブ・メイン・動詞とパッシブ・メイン・動詞の10の文があるまでサンプルを採取した。
訳抜け防止モード: パーサーがアクティブ・パッシブ・トランジッシブ文に対して一貫した定数を用いたかという疑問に答える。 能動的または受動的主動詞が10文になるまでサンプルを採取した。
0.63
For the single-argument verbs, we also looked at nominalised verbs, modifiers, and so forth. 単助動詞については、名動詞や修飾語などについても検討した。 0.61
(Sampling and visualisation scripts will be available together with the rest of our code on GitHub.) (GitHubの他のコードと一緒にサンプルと視覚化スクリプトが利用可能になります。 0.70
B An algorithm to obtain all AM B すべてのAMを得るアルゴリズム 0.75
dep-trees for a graph Let G be a graph partitioned into blobs. グラフのdep木 G を blob に分割したグラフとする。 0.72
Let UG be the set of unrolled graphs for G that can be obtained ug を g に対して得られる未ロールグラフの集合とする 0.69
Algorithm 3: Modify-edge swapping 1 Input: an AM dep-tree T and a set M of アルゴリズム3:modified-edge swapping 1 input: a am dep-tree t and a set m of 0.85
pairs of consecutive edges in T of the form (cid:104)n MODn−−→ m, m MODm−−−→ k(cid:105) such that no edge appears in multiple pairs. T の連続する辺の対 (cid:104)n MODn−−→ m, m MODm−−−→ k(cid:105) は、エッジが複数の対に存在しない。 0.71
2 for (cid:104)n MODn−−→ m, m MODm−−−→ k(cid:105) ∈ M: 2 for (cid:104)n MODn−−→ m, m MODm−−−→ k(cid:105) ∈ M。 0.73
3 4 5 Replace n MODn−−→ m in T with n MODn−−→ k; Replace m MODm−−−→ k in T with k APPm−−→ m; Add β(m) (which always includes n) to the request at m in τ(k); 3 4 5 T の n MODn−−−→ m を n MODn−−→ k で置き換える; m MODm−−−−−→ k を k APPm−−→ m で置き換える; β(m) を τ(k) の m で要求に対して常に n を含む)。 0.84
6 return T 6 return T 0.85
by Algorithm 2 by varying the queue order. アルゴリズム2はキューの順序を変更する。 0.71
Let further MG be the set of results of Algorithm 3 below for every input AM dep-tree T = CU for U ∈ UG and every choice of set M as specified in the algorithm. さらに MG を、U ∈ UG の入力 AM dep-tree T = CU およびアルゴリズムで指定された集合 M のすべての選択に対するアルゴリズム 3 の結果の集合とする。 0.86
Algorithm 3 switches the order of two nodes m and k, making k the head of the subtree previously headed by m. This change of head is only possible when the incoming edge of m is labeled MOD (for APP, the change of head changes the evaluation result). アルゴリズム3は、2つのノードm,kの順序を切り替え、kをmに先導されたサブツリーの先頭にする。このヘッドの変化は、mの入ってくるエッジにMODをラベル付けした場合のみ可能となる(APPの場合、ヘッドの変化が評価結果を変える)。 0.69
It also requires a MOD edge between m and k; an APP edge with this type of swap would lead to a non-well-typed graph. また、m と k の間の MOD エッジも必要であり、このタイプのスワップを持つ APP エッジは、不整型グラフにつながる。 0.65
Finally, let RG be the set of results of Algorithm 4 for every input AM dep-tree T ∈ MG and any valid choice of R and RT (valid as described in the algorithm). 最後に、RG を任意の入力 AM dep-tree T ∈ MG に対するアルゴリズム 4 の結果の集合とし、R と RT の任意の有効な選択(アルゴリズムに記述されている値)とする。 0.83
Algorithm 4 is like Algorithm 1 for reentrancy resolution, but can have resolution targets RT (n) that are higher in the tree than the lowest common ancestor of n and the REF-n nodes. アルゴリズム4は、reentrancy resolutionのアルゴリズム1に似ているが、nとref-nノードの最も低い共通祖先よりもツリー内で高い解像度ターゲットrt(n)を持つことができる。 0.77
Further, Algorithm 4 uses the same methodology to also move nodes that do not need resolution to become descendents of a ‘resolution target’ higher in the tree (i.e. さらにアルゴリズム4は、同じ手法を使って、解像度を必要としないノードをツリー内の「解決対象」のより上位のノード(すなわち、解決対象)に移動させる。
訳抜け防止モード: さらに、アルゴリズム4は同じ手法を使って、解決を必要としないノードを移動させる。 to be descendents of a ‘ resolution target ’ higher in the tree(e。
0.78
R here can now also contain nodes for which no REF node exists). Rは、REFノードが存在しないノードも含むことができる)。 0.74
Then the following Theorem 3 holds: すると次の定理 3 が成り立つ。 0.64
Theorem 3. Let G be a graph partitioned into blobs, and let TG be the set of all well-typed AM dep-trees with placeholder sources, using that blob partition, that evaluate to G. Then if TG = ∅, all AM dep-trees in RG are either not well-typed or do not evaluate to G. If however TG (cid:54)= ∅, then RG = TG. 理論3。 g をブロブに分割したグラフとし、tg をプレースホルダーソースを持つすべてのよく型付けされた am dep-tree の集合とし、そのブロブ分割を用いて g に評価すると、rg のすべての am dep-tree はよく型付けされていないか g に評価されない。
訳抜け防止モード: 理論3。 G を blob に分割したグラフとし、TG をプレースホルダーソースを持つすべてのうまく型付けられた AM dep ツリーの集合とする。 ブロブパーティションを使って すると TG = > ならば、RG のすべての AM dep - 木は、よくないか、型付けされない。 TG ( cid:54)= s, すると RG = TG となる。
0.69
英語(論文から抽出)日本語訳スコア
Algorithm 4: Extended reentrancy resolution 1 Input: an AM dep-tree T ; a set アルゴリズム4:拡張reentrancy resolution 1 input: an am dep-tree t; a set 0.83
R ⊇ {n ∈ NG | ∃ REF-n node in T}; and a map RT that assigns to each node n ∈ R a resolution target RT (n), that is at least as high as the lowest common ancestor of n and all REF-n nodes (if they exist), and that satisfies the conditions of Theorem 1. そして、各ノード n ∈ R に分解目標 RT (n) を割り当てる写像 RT は、少なくとも n とすべての REF-n ノードの最小の共通祖先(存在すれば)と同程度の高さであり、定理 1 の条件を満たす。
訳抜け防止モード: T の R > {n ∈ NG | > REF - n node in T } ; そして、各ノード n ∈ R に分解目標 RT (n ) を割り当てる写像 RT である。 少なくともnの最も低い祖先は そして、すべてのREF - nノード(存在すれば) そしてそれは Theorem 1 の条件を満たす。
0.79
2 while R (cid:54)= ∅: 2 while R (cid:54)= s: 0.97
Pick a y ∈ R s.t. y ∈ r s.t を選ぶ。 0.74
there is no x ∈ R, x (cid:54)= y, with y on an x-resolution path; for p ∈ y-resolution paths: x ∈ r, x (cid:54)= y は存在せず、y は x 分解経路上にある。
訳抜け防止モード: x ∈ r, x (cid:54)= y, y を x-分解経路 ; for p ∈ y - resolution paths :
0.79
for n APP−−→ m ∈ p: n APP−− − m ∈ p: 0.85
if m is y or labeled REF-y: m が y または REF-y であるなら 0.74
Add β(y) to the request at y in τ(n); τ(n); の y における要求に β(y) を加える 0.80
else: Add y[β(y)] to the request at m in τ(n); その他 τ(n); の m における要求に y[β(y)] を加える 0.66
3 4 5 6 7 8 9 3 4 5 6 7 8 9 0.85
10 Move the subtree of T rooted at y up to be an APPy daughter of RT (y), unless RT (y) = y; Delete all REF-y nodes from T ; R ← R − {y} 10 RT (y) = y でない限り RT (y) の APPy 娘となるように y で根付いた T の部分木を移動させよう; RT (y) = y; すべての REF-y ノードを T から削除する; R > R − {y} 0.80
11 12 13 return T 11 12 13 return T 0.85
C Additional Details • AMR F-scores are Smatch scores (Cai and C の詳細 •AMRFスコアはSmatchスコア(Cai, 0.66
Knight, 2013) ナイト、2013年) 0.59
• DM, PAS and PSD: We compute laF-score with evaluation that was developed for the SDP https://github.com/ • DM,PAS,PSD: SDP https://github.com/ で開発された評価で laF-score を計算する。 0.70
beled toolkit shared semantic-dependency- parsing/toolkit beled toolkit shared semantic-dependency- parsing/toolkit 0.53
task: the • We use the standard train/dev/test split for all タスク: はあ? ※標準列車・dev/testスプリットを全て使用 0.60
corpora • AMR corpus available through https://amr. コーパス https://amr.com/AMRコーパス。 0.39
isi.edu/download.htm l (requires LDC license) isi.edu/download.htm l (ldcライセンスが必要) 0.51
• SDP corpora available through https: • httpsで利用可能なSDPコーパス。 0.71
//catalog.ldc.upenn. edu/LDC2016T10 (requires LDC license) catalog.ldc.upenn.ed u/ldc2016t10 (ldcライセンスが必要) 0.37
Number of source names. We experimented with different numbers of source names in the joint neural method (Table 4). 名前の由来。 関節神経法(Table 4)では,様々なソース名を実験した(Table 4)。 0.49
Mostly, three source # sources 2 3 4 6 主な資料は3つ。 # sources 2 3 4 6 0.69
DM PAS 92.2 91.9 94.8 94.5 94.7 94.4 92.3 93.6 DM PAS 92.2 91.9 94.8 94.5 94.7 94.4 92.3 93.6 0.48
PSD AMR 75.6 74.3 76.5 82.7 83.4 75.9 80.1 73.4 PSD AMR 75.6 74.3 76.5 82.7 83.4 75.9 80.1 73.4 0.48
Table 4: Development set accuracies of the neural method for different numbers of source names. 表4: 開発は、異なる数のソース名に対して、ニューラルネットワークの精度を設定する。 0.65
Activation function Optimizer Learning rate Epochs Dim of lemma embeddings Dim of POS embeddings Dim of NE embeddings Minimum lemma frequency Hidden layers in all MLPs Hidden units in LSTM (per direction) Hidden units in edge existence MLP Hidden units in edge label MLP Hidden units in supertagger MLP Hidden units in lexical label tagger MLP Layer dropout in LSTMs Recurrent dropout in LSTMs Input dropout Dropout in edge existence MLP Dropout in edge label MLP Dropout in supertagger MLP Dropout in lexical label tagger MLP Activation function Optimizer Learning rate Epochs Dim of lemma embeddings Dim of POS embeddings Dim of NE embeddings Minimum lemma frequency Hidden layers in all MLPs Hidden units in LSTM (per direction) Hidden units in edge existence MLP Hidden units in edge label MLP Hidden units in supertagger MLP Hidden units in lexical label tagger MLP Layer dropout in LSTMs Recurrent dropout in LSTMs Input dropout Dropout in edge existence MLP Dropout in edge label MLP Dropout in supertagger MLP Dropout in lexical label tagger MLP 0.85
tanh Adam 0.001 100 64 32 16 7 1 256 256 256 1024 1024 0.3 0.4 0.3 0.0 0.0 0.4 0.4 tanh Adam 0.001 100 64 32 16 7 1 256 256 256 1024 1024 0.3 0.4 0.3 0.0 0.0 0.4 0.4 0.68
Table 5: Common hyperparameters used in all experiments (the random trees, random weights and EM weights baselines use 40 epochs since they converge faster). 表5: 全ての実験で使用される一般的なハイパーパラメータ(ランダムツリー、ランダムウェイト、EMウェイト)は、より速く収束するため40エポックを使用する。 0.63
For a complete description of the neural architecture, see Lindemann et al (2019) and its supplementary materials. 神経アーキテクチャの完全な説明についてはlindemann et al (2019)とその補足資料を参照。 0.71
names were most effective, except for PSD, where four were most effective. 名前はPSDを除いて最も効果的で、4つが最も有効であった。 0.73
Two source names are not enough to model many common phenomena (e g ditransitive verbs, coordination of verbs); graphs containing these phenomena cannot be decomposed with two sources and are removed from the training set, reducing parsing accuracy. 2つのソース名は、多くの共通現象をモデル化するのに十分ではない(例えば、二進動詞、動詞の調整)。
訳抜け防止モード: 2つのソース名だけでは不十分 多くの共通の現象(例えば二進動詞、動詞の調整)をモデル化する これらの現象を含むグラフは2つのソースで分解することはできない。 トレーニングセットから削除され、解析精度が低下します。
0.68
The higher performance of PSD with four sources may stem from PSD using flat coordination structures which require more source names; although this is also true for AMR where four source names are not beneficial. 4つのソースを持つPSDのより高い性能は、より多くのソース名を必要とする平らな調整構造を用いるPSDに由来する可能性があるが、これは4つのソース名が有益でないAMRにも当てはまる。 0.68
The drop with six source names may come from the fact that the latent space grows rapidly with more sources, making it harder to learn consistent source assignments. 6つのソース名の低下は、潜在的なスペースがより多くのソースで急速に成長するため、一貫性のあるソース割り当てを学ぶのが難しくなるためかもしれない。
訳抜け防止モード: 6つのソース名のドロップは 潜在空間は、より多くのソースで急速に成長し、一貫したソース割り当てを学ぶのが難しくなる。
0.75
Hyperparameters. ハイパーパラメータ。 0.66
See Table 5. 表5を参照。 0.82
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。