論文の概要: Discontinuous Constituent Parsing with Pointer Networks
- arxiv url: http://arxiv.org/abs/2002.01824v1
- Date: Wed, 5 Feb 2020 15:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 21:28:23.840119
- Title: Discontinuous Constituent Parsing with Pointer Networks
- Title(参考訳): ポインタネットワークを用いた不連続成分解析
- Authors: Daniel Fern\'andez-Gonz\'alez and Carlos G\'omez-Rodr\'iguez
- Abstract要約: 不連続な構成木は、ドイツ語のような言語の文法的な現象を表現するのに不可欠である。
係り受け解析の最近の進歩は、ポインタネットワークが文中の単語間の構文関係を効率的に解析することに優れていることを示している。
本稿では,最も正確な不連続な構成表現を生成するニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.34376560669160383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most complex syntactic representations used in computational
linguistics and NLP are discontinuous constituent trees, crucial for
representing all grammatical phenomena of languages such as German. Recent
advances in dependency parsing have shown that Pointer Networks excel in
efficiently parsing syntactic relations between words in a sentence. This kind
of sequence-to-sequence models achieve outstanding accuracies in building
non-projective dependency trees, but its potential has not been proved yet on a
more difficult task. We propose a novel neural network architecture that, by
means of Pointer Networks, is able to generate the most accurate discontinuous
constituent representations to date, even without the need of Part-of-Speech
tagging information. To do so, we internally model discontinuous constituent
structures as augmented non-projective dependency structures. The proposed
approach achieves state-of-the-art results on the two widely-used NEGRA and
TIGER benchmarks, outperforming previous work by a wide margin.
- Abstract(参考訳): 計算言語学やNLPで使用される最も複雑な構文表現の1つは、不連続な構成木であり、ドイツ語のような言語の文法的現象を表現するのに不可欠である。
係り受け解析の最近の進歩は、ポインタネットワークが文中の単語間の構文関係を効率的に解析することに優れていることを示している。
この種のシーケンシャル・トゥ・シーケンスモデルは、非射影的依存性木を構築する際に際立った精度を発揮するが、その可能性はより難しいタスクで証明されていない。
本稿では,ポインタネットワークを用いて,パート・オブ・スパイチのタグ情報を必要とせずとも,これまでで最も正確な不連続な構成表現を生成できる新しいニューラルネットワークアーキテクチャを提案する。
そのため、不連続な構成構造を拡張非射影的依存構造として内部的にモデル化する。
提案手法は, NEGRA と TIGER の2つのベンチマークにおいて, 最先端の成果を得られた。
関連論文リスト
- Entity-Aware Self-Attention and Contextualized GCN for Enhanced Relation Extraction in Long Sentences [5.453850739960517]
本稿では,入力文の構文構造とシーケンスの意味的文脈を効率的に組み込んだ,エンティティを意識した自己意図型GCN(ESC-GCN)を提案する。
本モデルでは,既存の依存性ベースモデルやシーケンスベースモデルと比較して,パフォーマンスの向上を実現している。
論文 参考訳(メタデータ) (2024-09-15T10:50:51Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Discontinuous Grammar as a Foreign Language [0.7412445894287709]
構成解析のためのシーケンス・ツー・シーケンス・モデルの枠組みを拡張した。
我々は不連続性を完全に生成できるいくつかの新規化を設計する。
提案手法はまず,主要な不連続なベンチマーク上でシーケンス・ツー・シーケンス・モデルをテストする。
論文 参考訳(メタデータ) (2021-10-20T08:58:02Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Multitask Pointer Network for Multi-Representational Parsing [0.34376560669160383]
本稿では,1つのモデルをトレーニングすることにより,任意の入力文を構成木と依存木の両方で効率的に解析できる遷移ベースアプローチを提案する。
我々は2つのタスク固有のデコーダと共通エンコーダを備えたポインタネットワークアーキテクチャを開発し、それらを共同で訓練するための学習戦略に従う。
論文 参考訳(メタデータ) (2020-09-21T10:04:07Z) - Transition-based Semantic Dependency Parsing with Pointer Networks [0.34376560669160383]
本稿では,ラベル付き非巡回グラフを容易に生成し,セマンティック依存解析を行う遷移システムを提案する。
BERTから抽出した深層文脈化単語埋め込みによるアプローチを強化する。
結果として得られたシステムは、既存のトランジションベースモデルをすべて上回るだけでなく、SemEval 2015 18の英語データセットでこれまでで最高の完全教師付き精度を達成している。
論文 参考訳(メタデータ) (2020-05-27T13:18:27Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z) - Representations of Syntax [MASK] Useful: Effects of Constituency and
Dependency Structure in Recursive LSTMs [26.983602540576275]
シーケンスベースのニューラルネットワークは、構文構造に対してかなりの感度を示すが、それでも木ベースのネットワークよりも構文上のタスクではうまく機能しない。
これら2つの表現スキームのどちらが構文構造に対するバイアスをより効果的に導入するかを評価する。
選挙区ネットワークは,依存性に基づくネットワークよりも強固に一般化し,これら2種類の構造を組み合わせることで,さらなる改善が得られないことを示す。
論文 参考訳(メタデータ) (2020-04-30T18:00:06Z) - BURT: BERT-inspired Universal Representation from Twin Structure [89.82415322763475]
BURT (BERT inspired Universal Representation from Twin Structure) は任意の粒度の入力シーケンスに対して普遍的で固定サイズの表現を生成することができる。
提案するBURTは,Siameseネットワークを採用し,自然言語推論データセットから文レベル表現を学習し,パラフレーズ化データセットから単語/フレーズレベル表現を学習する。
我々は,STSタスク,SemEval2013 Task 5(a) など,テキスト類似性タスクの粒度によってBURTを評価する。
論文 参考訳(メタデータ) (2020-04-29T04:01:52Z) - Coreferential Reasoning Learning for Language Representation [88.14248323659267]
本稿では,コンテキスト内でコアファーデンシャル関係をキャプチャ可能な新しい言語表現モデルCorefBERTを提案する。
実験の結果,既存のベースラインモデルと比較して,CorefBERTは下流のNLPタスクにおいて一貫した大幅な改善を達成できることがわかった。
論文 参考訳(メタデータ) (2020-04-15T03:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。