論文の概要: The LL(finite) strategy for optimal LL(k) parsing
- arxiv url: http://arxiv.org/abs/2010.07874v2
- Date: Wed, 20 Jan 2021 10:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:03:28.598918
- Title: The LL(finite) strategy for optimal LL(k) parsing
- Title(参考訳): 最適LL(k)解析のためのLL(finite)戦略
- Authors: Peter Belcak
- Abstract要約: k を知らなくてもよい LL(k) 文法を解析するための LL(finite) 解析戦略を示す。
この戦略は入力を線形時間で解析し、任意だが常に最小限のルックアヘッドを使って非終端の代替品を曖昧にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The LL(finite) parsing strategy for parsing of LL(k) grammars where k needs
not to be known is presented. The strategy parses input in linear time, uses
arbitrary but always minimal lookahead necessary to disambiguate between
alternatives of nonterminals, and it is optimal in the number of lookahead
terminal scans performed. Modifications to the algorithm are shown that allow
for resolution of grammar ambiguities by precedence -- effectively interpreting
the input as a parsing expression grammar -- as well as for the use of
predicates, and a proof of concept, the open-source parser generator Astir,
employs the LL(finite) strategy in the output it generates.
- Abstract(参考訳): k を知らなくてもよい LL(k) 文法を解析するための LL(finite) 解析戦略を提示する。
この戦略は入力を線形時間で解析し、非終端の代替を曖昧にするために必要最小限のルックアヘッドを用いており、ルックアヘッド端末スキャンの実行回数に最適である。
アルゴリズムの修正により、先行して文法の曖昧さを解消し、入力を構文解析式文法として効果的に解釈し、述語の使用を可能とし、概念実証としてオープンソースのパーサー生成器であるAstirは、生成した出力にLL(有限)戦略を採用する。
関連論文リスト
- Graph-Structured Speculative Decoding [52.94367724136063]
投機的復号化は、大規模言語モデルの推論を加速する有望な手法として登場した。
本稿では, 有向非巡回グラフ(DAG)を応用して, 起案された仮説を管理する革新的な手法を提案する。
我々は1.73$times$から1.96$times$に顕著なスピードアップを観察し、標準投機的復号法を大幅に上回った。
論文 参考訳(メタデータ) (2024-07-23T06:21:24Z) - Grammar-Aligned Decoding [30.972850034752884]
LLM(Large Language Models)は、プログラムコード、数学的公式、整形されたマークアップなどの高度に構造化された出力を確実に生成するのに苦労する。
制約付き復号法は、LLMが出力できるトークンを各ステップで厳格に制限し、出力が与えられた制約と一致することを保証することによってこの問題を軽減する。
本稿では,GCD技術がLLMの分布を歪め,文法的だがLLMに比例しない確率で現れる出力を導出することを示す。
論文 参考訳(メタデータ) (2024-05-31T17:39:15Z) - Constrained Decoding for Fill-in-the-Middle Code Language Models via Efficient Left and Right Quotienting of Context-Sensitive Grammars [11.279507894576213]
本稿では,構文的に正しくないコードの早期拒絶を可能にするインクリメンタルな合成に寄与する。
文脈自由文法の左右商を許容するために、Earey解析アルゴリズムを拡張した。
論文 参考訳(メタデータ) (2024-02-28T02:12:47Z) - PIP: Parse-Instructed Prefix for Syntactically Controlled Paraphrase
Generation [61.05254852400895]
Parse-Instructed Prefix (PIP) は、大規模な事前学習言語モデルをチューニングするためのプレフィックスチューニングの新しい適応である。
このタスクの従来の微調整手法とは対照的に、PIPは学習可能なパラメータの10倍少ない計算効率の代替手段である。
論文 参考訳(メタデータ) (2023-05-26T07:42:38Z) - Happy-GLL: modular, reusable and complete top-down parsers for
parameterized nonterminals [0.0]
本稿では,モジュール型再利用可能な完全トップダウン文法を生成するための戦略を提案する。
この戦略は、Happyジェネレータの新しいバックエンドとして議論され、実証されている。
論文 参考訳(メタデータ) (2023-03-14T16:23:23Z) - Finding Dataset Shortcuts with Grammar Induction [85.47127659108637]
我々は,NLPデータセットのショートカットの特徴付けと発見に確率文法を用いることを提案する。
具体的には、文脈自由文法を用いて文分類データセットのパターンをモデル化し、同期文脈自由文法を用いて文ペアを含むデータセットをモデル化する。
その結果得られた文法は、単純かつ高レベルの機能を含む、多くのデータセットで興味深いショートカット機能を示す。
論文 参考訳(メタデータ) (2022-10-20T19:54:11Z) - Classifiers are Better Experts for Controllable Text Generation [63.17266060165098]
提案手法は, PPLにおける最近のPPLM, GeDi, DExpertsよりも有意に優れており, 生成したテキストの外部分類器に基づく感情の精度が高いことを示す。
同時に、実装やチューニングも簡単で、制限や要件も大幅に少なくなります。
論文 参考訳(メタデータ) (2022-05-15T12:58:35Z) - Provable Adversarial Robustness for Fractional Lp Threat Models [136.79415677706612]
分数L_pの「ノルム」で区切られた攻撃はまだ十分に検討されていない。
いくつかの望ましい性質を持つ防衛法を提案する。
証明可能な(認証された)堅牢性を提供し、ImageNetにスケールし、(高い確率ではなく)決定論的保証を得る。
論文 参考訳(メタデータ) (2022-03-16T21:11:41Z) - LAGr: Labeling Aligned Graphs for Improving Systematic Generalization in
Semantic Parsing [6.846638912020957]
グラフとしてではなく,直接表現として表現することによって,より優れた体系的一般化を実現することができることを示す。
完全多層入力整列グラフに対して,ノードラベルとエッジラベルを予測して意味解析を生成できるラベル付きグラフアルゴリズム LAGr を提案する。
論文 参考訳(メタデータ) (2021-10-14T17:37:04Z) - The Limitations of Limited Context for Constituency Parsing [27.271792317099045]
Shen et al., 2018a)の構文解析アーキテクチャは、教師なし構文解析を最初に行った。
現在の構文に対するニューラルアプローチはどのような構文構造を表現できるのか?
我々は確率論的自由文法(PCFG)のサンドボックスにこの疑問を解いた。
これらのアプローチの表現力の重要な側面は、予測者がアクセス可能なコンテキストの量と方向性である。
論文 参考訳(メタデータ) (2021-06-03T03:58:35Z) - Reducing Confusion in Active Learning for Part-Of-Speech Tagging [100.08742107682264]
アクティブラーニング(AL)は、データ選択アルゴリズムを使用して、アノテーションコストを最小限に抑えるために有用なトレーニングサンプルを選択する。
本研究では、特定の出力タグのペア間の混乱を最大に低減するインスタンスの選択問題について検討する。
提案するAL戦略は,他のAL戦略よりも有意差で優れている。
論文 参考訳(メタデータ) (2020-11-02T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。