論文の概要: Fast semantic parsing with well-typedness guarantees
- arxiv url: http://arxiv.org/abs/2009.07365v2
- Date: Tue, 6 Oct 2020 14:49:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:16:44.821888
- Title: Fast semantic parsing with well-typedness guarantees
- Title(参考訳): well-typedness 保証付き高速意味解析
- Authors: Matthias Lindemann, Jonas Groschwitz, Alexander Koller
- Abstract要約: AM依存性解析は、複数のグラフバンクにまたがる高精度なニューラルセマンティック解析の原理的手法である。
A* と AM 依存解析の遷移ベースを記述し, 高い型付け性を確保し, 解析速度を最大 3 桁向上する。
- 参考スコア(独自算出の注目度): 78.76675218975768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AM dependency parsing is a linguistically principled method for neural
semantic parsing with high accuracy across multiple graphbanks. It relies on a
type system that models semantic valency but makes existing parsers slow. We
describe an A* parser and a transition-based parser for AM dependency parsing
which guarantee well-typedness and improve parsing speed by up to 3 orders of
magnitude, while maintaining or improving accuracy.
- Abstract(参考訳): AM依存性解析は、複数のグラフバンクにまたがる高精度なニューラルセマンティック解析の言語学的手法である。
セマンティック価をモデル化するが、既存のパーサを遅くする型システムに依存している。
本稿では,am依存構文解析のためのa*パーサとトランジッションベースのパーサについて述べる。
関連論文リスト
- Hexatagging: Projective Dependency Parsing as Tagging [63.5392760743851]
文中の単語を有限個の可能なタグの要素でタグ付けすることで、依存関係木を構成する新しい依存性であるヘキサトガーを導入する。
私たちのアプローチは、トレーニング時に完全に並列化可能です。すなわち、依存関係のパースを構築するのに必要な構造構築アクションは、互いに並列に予測できます。
我々はPenn Treebankテストセット上で96.4 LASと97.4 UASの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-08T18:02:07Z) - PIP: Parse-Instructed Prefix for Syntactically Controlled Paraphrase
Generation [61.05254852400895]
Parse-Instructed Prefix (PIP) は、大規模な事前学習言語モデルをチューニングするためのプレフィックスチューニングの新しい適応である。
このタスクの従来の微調整手法とは対照的に、PIPは学習可能なパラメータの10倍少ない計算効率の代替手段である。
論文 参考訳(メタデータ) (2023-05-26T07:42:38Z) - TreePiece: Faster Semantic Parsing via Tree Tokenization [2.1685554819849613]
TreePieceはパースツリーをサブツリーにトークン化し、デコードステップ毎に1つのサブツリーを生成する。
TopV2ベンチマークでは、TreePieceは標準的なARの4.6倍のデコード速度を示している。
論文 参考訳(メタデータ) (2023-03-30T05:44:44Z) - Unfreeze with Care: Space-Efficient Fine-Tuning of Semantic Parsing
Models [5.893781742558463]
本研究は2つの有望な手法であるプレフィックスチューニングとバイアス長期チューニングについて,特に意味解析について検討する。
2つの異なるセマンティック解析データセットで比較し、また、ショット数と従来のデータ設定の両方で、フルおよび部分的な微調整と比較します。
プレフィックスチューニングはセマンティック解析タスクを棚から取り出すのに役立ちませんが、特別なトークン埋め込みを追加して修正します。
論文 参考訳(メタデータ) (2022-03-05T04:30:03Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - A Modest Pareto Optimisation Analysis of Dependency Parsers in 2021 [0.38073142980733]
異なるパラダイムの3つの主要な依存システムを、小さいが多様なサブセット言語上で評価する。
効率性に関心があるので、事前訓練された言語モデルなしでコアを評価する。
バイアス解析は、バランスの取れたデフォルト選択として現れる。
論文 参考訳(メタデータ) (2021-06-08T09:55:47Z) - Dependency Parsing with Bottom-up Hierarchical Pointer Networks [0.7412445894287709]
左から右へ、トップダウンのトランジションベースのアルゴリズムは、依存性解析を行う上で最も正確なアプローチである。
文を右から左の順に解析するアプローチと、外部から実行する変種という2つの新しい遷移ベースの代替案を提案する。
提案したニューラルアーキテクチャを、さまざまな言語で異なるアルゴリズムで実証的にテストし、そのすべてにおいて、元のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-05-20T09:10:42Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - Don't Parse, Insert: Multilingual Semantic Parsing with Insertion Based
Decoding [10.002379593718471]
成功した構文は、入力発話をシステムで容易に理解できる動作に変換する。
複雑な解析タスクに対して、最先端の手法は、解析を直接生成するためのシーケンスモデルへの自己回帰シーケンスに基づいている。
論文 参考訳(メタデータ) (2020-10-08T01:18:42Z) - A Simple Global Neural Discourse Parser [61.728994693410954]
本稿では,手作業で構築した特徴を必要とせず,学習したスパン表現のみに基づく簡易なグラフベースニューラル談話を提案する。
我々は,我々のモデルが世界規模で最高の性能を達成し,最先端の欲求に匹敵する性能を実証的に示す。
論文 参考訳(メタデータ) (2020-09-02T19:28:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。