論文の概要: Neural Combinatory Constituency Parsing
- arxiv url: http://arxiv.org/abs/2106.06689v1
- Date: Sat, 12 Jun 2021 05:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 22:31:11.580828
- Title: Neural Combinatory Constituency Parsing
- Title(参考訳): Neural Combinatory Constituency Parsing
- Authors: Zhousi Chen, Longtu Zhang, Aizhan Imankulova, and Mamoru Komachi
- Abstract要約: 本モデルでは, ボトムアップ解析プロセスを, 1) タグ, ラベル, バイナリオリエンテーション, チャンクの分類と, 2) 計算した向きやチャンクに基づくベクトル構成に分解する。
二進法モデルでは、Penn TreebankのF1スコアは92.54であり、1327.2の送信/秒である。
XLNetのどちらのモデルも、ほぼ最先端の英語の精度を提供する。
- 参考スコア(独自算出の注目度): 12.914521751805658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose two fast neural combinatory models for constituency parsing:
binary and multi-branching. Our models decompose the bottom-up parsing process
into 1) classification of tags, labels, and binary orientations or chunks and
2) vector composition based on the computed orientations or chunks. These
models have theoretical sub-quadratic complexity and empirical linear
complexity. The binary model achieves an F1 score of 92.54 on Penn Treebank,
speeding at 1327.2 sents/sec. Both the models with XLNet provide near
state-of-the-art accuracies for English. Syntactic branching tendency and
headedness of a language are observed during the training and inference
processes for Penn Treebank, Chinese Treebank, and Keyaki Treebank (Japanese).
- Abstract(参考訳): 構成解析のための2つの高速なニューラルコンビネータモデルを提案する。
本モデルでは, ボトムアップ解析プロセスを, 1) タグ, ラベル, バイナリオリエンテーション, チャンクの分類と, 2) 計算した向きやチャンクに基づくベクトル構成に分解する。
これらのモデルは理論的に二次的複雑性と経験的線形複雑性を持つ。
二進法モデルでは、Penn TreebankのF1スコアは92.54であり、1327.2の送信/秒である。
XLNetのどちらのモデルも、ほぼ最先端の英語の精度を提供する。
ペン・ツリーバンク、チャイニーズツリーバンク、キーアキツリーバンク(日本語)の訓練および推論過程において、言語の構文分岐傾向と頭行性が観察される。
関連論文リスト
- High-order Joint Constituency and Dependency Parsing [15.697429723696011]
我々は、入力文に対して、共同で選挙区と依存木を解析する話題、すなわち、互換性のある選挙区と依存木を同時に生成する話題を再考する。
我々は、7つの言語の実験と分析を行い、リッチリソースと低リソースの両方のシナリオをカバーしています。
論文 参考訳(メタデータ) (2023-09-21T08:45:41Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Characterizing Intrinsic Compositionality in Transformers with Tree
Projections [72.45375959893218]
トランスのようなニューラルモデルは、入力の異なる部分間で情報を任意にルーティングすることができる。
3つの異なるタスクに対するトランスフォーマーは、トレーニングの過程でより木のようなものになることを示す。
これらの木はモデル挙動を予測し、より木のようなモデルは構成的一般化のテストにおいてより良く一般化する。
論文 参考訳(メタデータ) (2022-11-02T17:10:07Z) - Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - Learning from Non-Binary Constituency Trees via Tensor Decomposition [12.069862650316262]
非バイナリ選挙区木に対処する新しいアプローチを導入する。
標準テンソル分解に基づく強力な合成関数が、そのようなリッチな構造をいかに活用できるかを示す。
異なるNLPタスクにおいて,その性能を実験的に評価する。
論文 参考訳(メタデータ) (2020-11-02T10:06:59Z) - Latent Tree Learning with Ordered Neurons: What Parses Does It Produce? [2.025491206574996]
潜在木学習モデルは、人間に注釈を付けた木構造に触れることなく、選挙区解析を学習することができる。
ON-LSTMは言語モデリングのトレーニングを受けており、教師なし構文解析の最先端性能を持つ。
私たちは、異なる再起動でモデルを複製し、それらのパースを調べます。
論文 参考訳(メタデータ) (2020-10-10T07:12:48Z) - Recursive Top-Down Production for Sentence Generation with Latent Trees [77.56794870399288]
自然および合成言語に対する文脈自由文法の生成特性をモデル化する。
潜伏二分木構造にN$の葉を持つ動的プログラミングアルゴリズムを提案する。
また,Multi30kデータセットを用いたドイツ語と英語の翻訳実験を行った。
論文 参考訳(メタデータ) (2020-10-09T17:47:16Z) - Multitask Pointer Network for Multi-Representational Parsing [0.34376560669160383]
本稿では,1つのモデルをトレーニングすることにより,任意の入力文を構成木と依存木の両方で効率的に解析できる遷移ベースアプローチを提案する。
我々は2つのタスク固有のデコーダと共通エンコーダを備えたポインタネットワークアーキテクチャを開発し、それらを共同で訓練するための学習戦略に従う。
論文 参考訳(メタデータ) (2020-09-21T10:04:07Z) - Efficient Constituency Parsing by Pointing [21.395573911155495]
本稿では,解析問題を一連のポインティングタスクにキャストする新しい選挙区解析モデルを提案する。
我々のモデルは効率的なトップダウンデコーディングをサポートしており、我々の学習目的は、高価なCKY推論に頼ることなく、構造的一貫性を強制することができる。
論文 参考訳(メタデータ) (2020-06-24T08:29:09Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。