論文の概要: Discontinuous Grammar as a Foreign Language
- arxiv url: http://arxiv.org/abs/2110.10431v1
- Date: Wed, 20 Oct 2021 08:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:13:36.215288
- Title: Discontinuous Grammar as a Foreign Language
- Title(参考訳): 外国語としての不連続文法
- Authors: Daniel Fern\'andez-Gonz\'alez and Carlos G\'omez-Rodr\'iguez
- Abstract要約: 構成解析のためのシーケンス・ツー・シーケンス・モデルの枠組みを拡張した。
我々は不連続性を完全に生成できるいくつかの新規化を設計する。
提案手法はまず,主要な不連続なベンチマーク上でシーケンス・ツー・シーケンス・モデルをテストする。
- 参考スコア(独自算出の注目度): 0.7412445894287709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to achieve deep natural language understanding, syntactic
constituent parsing is a vital step, highly demanded by many artificial
intelligence systems to process both text and speech. One of the most recent
proposals is the use of standard sequence-to-sequence models to perform
constituent parsing as a machine translation task, instead of applying
task-specific parsers. While they show a competitive performance, these
text-to-parse transducers are still lagging behind classic techniques in terms
of accuracy, coverage and speed. To close the gap, we here extend the framework
of sequence-to-sequence models for constituent parsing, not only by providing a
more powerful neural architecture for improving their performance, but also by
enlarging their coverage to handle the most complex syntactic phenomena:
discontinuous structures. To that end, we design several novel linearizations
that can fully produce discontinuities and, for the first time, we test a
sequence-to-sequence model on the main discontinuous benchmarks, obtaining
competitive results on par with task-specific discontinuous constituent parsers
and achieving state-of-the-art scores on the (discontinuous) English Penn
Treebank.
- Abstract(参考訳): 自然言語の理解を深めるためには、構文的構成解析は重要なステップであり、多くの人工知能システムがテキストと音声の両方を処理するために非常に要求している。
最新の提案の1つは、タスク固有のパーサを適用する代わりに、標準シーケンス・ツー・シーケンスモデルを使用して、機械翻訳タスクとして構成解析を実行することである。
競争力のある性能を示す一方で、これらのテキストからパースへのトランスデューサは、精度、カバレッジ、スピードの点で従来の技術に遅れを取っている。
このギャップを埋めるために,本論文では,構文解析のためのシーケンシャル・ツー・シーケンスモデルの枠組みを拡張し,その性能を向上させるためのより強力なニューラルネットワークアーキテクチャを提供するだけでなく,最も複雑な構文的現象である不連続構造を扱うためにそのカバレッジを拡大する。
そこで我々は,不連続性を完全に生成できる新しい線形化を設計し,まず主要な不連続性ベンチマーク上でシーケンス・ツー・シーケンス・モデルを試行し,タスク固有の不連続成分解析器と同等に競合する結果を得た。
関連論文リスト
- On the Sequence Evaluation based on Stochastic Processes [17.497842325320825]
本稿では,テキストエンコーダの訓練目標について紹介し,長文評価のためのより徹底的な測定(スコア)を設計する。
提案したトレーニング目的はシーケンスコヒーレンスを効果的に保存し,新しいスコアは時間的および空間的両方の依存関係を包括的にキャプチャする。
実験の結果,異なる長さの文書間の大域的および局所的な識別を含む,様々なシーケンス評価タスクにおいて,優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-28T02:33:38Z) - Activity Grammars for Temporal Action Segmentation [71.03141719666972]
時間的アクションセグメンテーションは、トリミングされていないアクティビティビデオを一連のアクションセグメンテーションに変換することを目的としている。
本稿では,時間的行動セグメンテーションのための神経予測を導くための効果的な活動文法を提案する。
実験の結果,提案手法は時間的動作のセグメンテーションを性能と解釈性の両方の観点から著しく改善することが示された。
論文 参考訳(メタデータ) (2023-12-07T12:45:33Z) - Structural generalization is hard for sequence-to-sequence models [85.0087839979613]
シーケンス・ツー・シーケンス(seq2seq)モデルは、多くのNLPタスクで成功している。
構成一般化に関する最近の研究は、セq2seqモデルは訓練で見られなかった言語構造への一般化において非常に低い精度を達成することを示した。
論文 参考訳(メタデータ) (2022-10-24T09:03:03Z) - Sentence Representation Learning with Generative Objective rather than
Contrastive Objective [86.01683892956144]
句再構成に基づく新たな自己教師型学習目標を提案する。
我々の生成学習は、十分な性能向上を達成し、現在の最先端のコントラスト法よりも優れています。
論文 参考訳(メタデータ) (2022-10-16T07:47:46Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Discontinuous Constituent Parsing with Pointer Networks [0.34376560669160383]
不連続な構成木は、ドイツ語のような言語の文法的な現象を表現するのに不可欠である。
係り受け解析の最近の進歩は、ポインタネットワークが文中の単語間の構文関係を効率的に解析することに優れていることを示している。
本稿では,最も正確な不連続な構成表現を生成するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-05T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。