論文の概要: Head-driven Phrase Structure Parsing in O($n^3$) Time Complexity
- arxiv url: http://arxiv.org/abs/2105.09835v1
- Date: Thu, 20 May 2021 15:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:38:35.798762
- Title: Head-driven Phrase Structure Parsing in O($n^3$) Time Complexity
- Title(参考訳): O($n^3$)時間複雑度における頭部駆動句構造解析
- Authors: Zuchao Li, Junru Zhou, Hai Zhao, Kevin Parnow
- Abstract要約: 2つの古典的な構文解析形式である構成解析と依存性解析は、統一的な形式主義の下での共同訓練と復号化の恩恵を受けている。
本稿では,O$($n3$) の時間的複雑さで新たなパフォーマンス保存を実現するために,改良されたヘッドスコアラを提案する。
- 参考スコア(独自算出の注目度): 48.683350567504604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constituent and dependency parsing, the two classic forms of syntactic
parsing, have been found to benefit from joint training and decoding under a
uniform formalism, Head-driven Phrase Structure Grammar (HPSG). However,
decoding this unified grammar has a higher time complexity ($O(n^5)$) than
decoding either form individually ($O(n^3)$) since more factors have to be
considered during decoding. We thus propose an improved head scorer that helps
achieve a novel performance-preserved parser in $O$($n^3$) time complexity.
Furthermore, on the basis of this proposed practical HPSG parser, we
investigated the strengths of HPSG-based parsing and explored the general
method of training an HPSG-based parser from only a constituent or dependency
annotations in a multilingual scenario. We thus present a more effective, more
in-depth, and general work on HPSG parsing.
- Abstract(参考訳): 古典的な構文解析の2つの形式である構成的および依存的解析は、統一形式主義(HPSG)の下での共同訓練と復号化の恩恵を受けている。
しかし、この統一文法のデコーディングは、デコーディング中に多くの要素を考慮する必要があるため、個別の形式(o(n^3)$)よりも時間的複雑性(o(n^5)$)が高い。
そこで我々は,新しい性能保存型パーサを$O$($n^3$)時間で実現するための改良されたヘッドスコアラを提案する。
さらに,本提案した実用HPSGパーサに基づき,HPSGに基づくパーサの強みについて検討し,多言語シナリオにおける構成的あるいは依存的アノテーションのみからHPSGベースのパーサをトレーニングする一般的な方法を検討した。
そこで我々は,HPSG解析において,より効果的で,より奥深く,汎用的な研究を行っている。
関連論文リスト
- An Attempt to Develop a Neural Parser based on Simplified Head-Driven Phrase Structure Grammar on Vietnamese [1.4990724156326336]
既存のベトナムのコーパスは、簡易な頭駆動句構造文法規則に従わなかった。
我々は、ベトナムのテキストをエンコードできるPhoBERTまたはXLM-Roaモデルに置き換えることで、最初のPenn Treebankを修正した。
以上の結果から,HPSG Neural corpora の簡易化は,選挙区解析において82%のFスコアを達成できた。
論文 参考訳(メタデータ) (2024-11-26T09:46:32Z) - Cross-domain Chinese Sentence Pattern Parsing [67.1381983012038]
文パターン構造解析(SPS)は、主に言語教育に使用される構文解析法である。
既存のSPSは教科書のコーパスに大きく依存しており、クロスドメイン機能に欠ける。
本稿では,大規模言語モデル(LLM)を自己学習フレームワーク内で活用する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T05:30:48Z) - Compositional Program Generation for Few-Shot Systematic Generalization [59.57656559816271]
コンポジションプログラムジェネレータ(CPG)と呼ばれるニューロシンボリックアーキテクチャに関する研究
CPGには3つの重要な特徴がある: 文法規則の形で、テキストモジュラリティ、テキストコンポジション、テキストタストラクションである。
SCAN と COGS のベンチマークでは,SCAN の14例と COGS の22例を使用して,完全な一般化を実現している。
論文 参考訳(メタデータ) (2023-09-28T14:33:20Z) - Hexatagging: Projective Dependency Parsing as Tagging [63.5392760743851]
文中の単語を有限個の可能なタグの要素でタグ付けすることで、依存関係木を構成する新しい依存性であるヘキサトガーを導入する。
私たちのアプローチは、トレーニング時に完全に並列化可能です。すなわち、依存関係のパースを構築するのに必要な構造構築アクションは、互いに並列に予測できます。
我々はPenn Treebankテストセット上で96.4 LASと97.4 UASの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-08T18:02:07Z) - Schema-Free Dependency Parsing via Sequence Generation [33.58097441488377]
依存構文解析は、文の構文的依存構造や意味的依存構造を抽出することを目的としている。
我々は、シーケンス生成(SG)を介して、普遍的でスキーマフリーな依存性解析(DP)を実現することを提案する。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Span-based Semantic Parsing for Compositional Generalization [53.24255235340056]
SpanBasedSPは入力発話上のスパンツリーを予測し、部分的なプログラムが入力内のスパンをどのように構成するかを明示的に符号化する。
GeoQuery、SCAN、CLOSUREでは、SpanBasedSPはランダムスプリットの強いseq2seqベースラインと似ているが、構成一般化を必要とするスプリットのベースラインに比べて劇的に性能が向上する。
論文 参考訳(メタデータ) (2020-09-13T16:42:18Z) - A Simple Global Neural Discourse Parser [61.728994693410954]
本稿では,手作業で構築した特徴を必要とせず,学習したスパン表現のみに基づく簡易なグラフベースニューラル談話を提案する。
我々は,我々のモデルが世界規模で最高の性能を達成し,最先端の欲求に匹敵する性能を実証的に示す。
論文 参考訳(メタデータ) (2020-09-02T19:28:40Z) - SPARQA: Skeleton-based Semantic Parsing for Complex Questions over
Knowledge Bases [27.343078784035693]
本稿では,複雑な質問の高次構造を表現するために,新しいスケルトン文法を提案する。
BERTをベースとしたパースアルゴリズムを用いたこの厳密な形式化は、下流の微細なセマンティック解析の精度を向上させるのに役立つ。
このアプローチは、いくつかのデータセットで有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-03-31T05:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。