論文の概要: Strongly Incremental Constituency Parsing with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2010.14568v1
- Date: Tue, 27 Oct 2020 19:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:07:51.206095
- Title: Strongly Incremental Constituency Parsing with Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いた強増分構成解析
- Authors: Kaiyu Yang, Jia Deng
- Abstract要約: 文を構文木にパースすることは、NLPの下流アプリケーションに恩恵をもたらす。
トランジッションベースは、状態遷移システムでアクションを実行することでツリーを構築する。
既存のトランジションベースは主にシフト・リデュース・トランジション・システムに基づいている。
- 参考スコア(独自算出の注目度): 70.16880251349093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parsing sentences into syntax trees can benefit downstream applications in
NLP. Transition-based parsers build trees by executing actions in a state
transition system. They are computationally efficient, and can leverage machine
learning to predict actions based on partial trees. However, existing
transition-based parsers are predominantly based on the shift-reduce transition
system, which does not align with how humans are known to parse sentences.
Psycholinguistic research suggests that human parsing is strongly incremental:
humans grow a single parse tree by adding exactly one token at each step. In
this paper, we propose a novel transition system called attach-juxtapose. It is
strongly incremental; it represents a partial sentence using a single tree;
each action adds exactly one token into the partial tree. Based on our
transition system, we develop a strongly incremental parser. At each step, it
encodes the partial tree using a graph neural network and predicts an action.
We evaluate our parser on Penn Treebank (PTB) and Chinese Treebank (CTB). On
PTB, it outperforms existing parsers trained with only constituency trees; and
it performs on par with state-of-the-art parsers that use dependency trees as
additional training data. On CTB, our parser establishes a new state of the
art. Code is available at
https://github.com/princeton-vl/attach-juxtapose-parser.
- Abstract(参考訳): 構文木への構文解析は、nlpの下流アプリケーションに役立つ。
トランジションベースのパーサは、状態遷移システムでアクションを実行することでツリーを構築する。
それらは計算効率が良く、機械学習を利用して部分木に基づく行動を予測できる。
しかし、既存のトランジッションベースのパーサーは、主にシフト-還元遷移系に基づいており、これは人間が文をパースする方法と一致していない。
人間はそれぞれのステップに正確に1つのトークンを追加することで、単一のパースツリーを成長させる。
本稿では,attach-juxtaposeと呼ばれる新しい遷移系を提案する。
それは強いインクリメンタルであり、単一の木を使って部分的な文を表し、各アクションは部分木にちょうど1つのトークンを追加します。
当社のトランジションシステムに基づいて, 強くインクリメンタルなパーサを開発した。
各ステップでは、グラフニューラルネットワークを使用して部分木をエンコードし、アクションを予測する。
我々はPenn Treebank (PTB) と Chinese Treebank (CTB) について解析を行った。
PTBでは、既存のパーサを選挙区木のみでトレーニングし、依存関係ツリーを追加のトレーニングデータとして使用する最先端のパーサと同等に動作します。
CTBでは,我々のパーサーが新たな最先端技術を確立している。
コードはhttps://github.com/princeton-vl/attach-juxtapose-parserで入手できる。
関連論文リスト
- Integrating Supertag Features into Neural Discontinuous Constituent Parsing [0.0]
伝統的な選挙区の見解では、構成要素は隣接した単語で構成されており、ドイツ語のような言語で一般的である。
トランジションベースの構文解析は、大きな注釈付きコーパス上で教師あり学習を用いて生のテキストを入力した木を生成する。
論文 参考訳(メタデータ) (2024-10-11T12:28:26Z) - TreePiece: Faster Semantic Parsing via Tree Tokenization [2.1685554819849613]
TreePieceはパースツリーをサブツリーにトークン化し、デコードステップ毎に1つのサブツリーを生成する。
TopV2ベンチマークでは、TreePieceは標準的なARの4.6倍のデコード速度を示している。
論文 参考訳(メタデータ) (2023-03-30T05:44:44Z) - Characterizing Intrinsic Compositionality in Transformers with Tree
Projections [72.45375959893218]
トランスのようなニューラルモデルは、入力の異なる部分間で情報を任意にルーティングすることができる。
3つの異なるタスクに対するトランスフォーマーは、トレーニングの過程でより木のようなものになることを示す。
これらの木はモデル挙動を予測し、より木のようなモデルは構成的一般化のテストにおいてより良く一般化する。
論文 参考訳(メタデータ) (2022-11-02T17:10:07Z) - Unsupervised and Few-shot Parsing from Pretrained Language Models [56.33247845224995]
本研究では,事前学習言語モデルで学習した自己注意重み行列に基づいて,アウトアソシエーションスコアを算出した教師なし構成的パーシングモデルを提案する。
教師なしモデルからいくつかの注釈付き木を用いた数ショット構文解析モデルに拡張し、解析のためのより優れた線形射影行列を学習する。
FPIOは20本の注釈付き木で訓練され、50本の注釈付き木で訓練された過去の数枚の構文解析よりも優れていた。
論文 参考訳(メタデータ) (2022-06-10T10:29:15Z) - Penn-Helsinki Parsed Corpus of Early Modern English: First Parsing
Results and Analysis [2.8749014299466444]
本研究は,Penn-Helsinki Parsed Corpus of Early Modern English (PPCEME) の最初の解析結果である。
PPCEMEの重要な特徴として,Penn Treebankよりも大きく,より多様な関数タグを含む,解析の難しさを挙げる。
論文 参考訳(メタデータ) (2021-12-15T23:56:21Z) - SmBoP: Semi-autoregressive Bottom-up Semantic Parsing [44.802643057976354]
半自己回帰的ボトムアップ (SmBoP) を提案する。これはデコードステップ$t$で構築され、高さ$leq t$の上位$K$サブツリーである。
効率の観点からすると、ボトムアップパーシングは、ある高さのすべてのサブツリーを並列にデコードすることができ、線形ではなく対数複雑性ランタイムに繋がる。
我々は、難易度ゼロショットセマンティック解析のベンチマークであるSpiderにSmBoPを適用し、SmBoPが復号時の2.2倍のスピードアップ、トレーニング時の5倍のスピードアップにつながることを示す。
論文 参考訳(メタデータ) (2020-10-23T14:02:32Z) - Please Mind the Root: Decoding Arborescences for Dependency Parsing [67.71280539312536]
我々はUniversal Dependency Treebankから多くの言語における最先端の出力を分析する。
最悪の制約違反率は24%です。
論文 参考訳(メタデータ) (2020-10-06T08:31:14Z) - Span-based Semantic Parsing for Compositional Generalization [53.24255235340056]
SpanBasedSPは入力発話上のスパンツリーを予測し、部分的なプログラムが入力内のスパンをどのように構成するかを明示的に符号化する。
GeoQuery、SCAN、CLOSUREでは、SpanBasedSPはランダムスプリットの強いseq2seqベースラインと似ているが、構成一般化を必要とするスプリットのベースラインに比べて劇的に性能が向上する。
論文 参考訳(メタデータ) (2020-09-13T16:42:18Z) - A Simple Global Neural Discourse Parser [61.728994693410954]
本稿では,手作業で構築した特徴を必要とせず,学習したスパン表現のみに基づく簡易なグラフベースニューラル談話を提案する。
我々は,我々のモデルが世界規模で最高の性能を達成し,最先端の欲求に匹敵する性能を実証的に示す。
論文 参考訳(メタデータ) (2020-09-02T19:28:40Z) - Parsing as Pretraining [13.03764728768944]
まず、コンストラクタと依存性解析をシーケンスタグとしてキャストする。
次に、単一のフィードフォワード層を使用して、ワードベクトルを線形化された木をエンコードするラベルに直接マッピングする。
論文 参考訳(メタデータ) (2020-02-05T08:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。