論文の概要: Supertagging-based Parsing with Linear Context-free Rewriting Systems
- arxiv url: http://arxiv.org/abs/2010.10238v1
- Date: Tue, 20 Oct 2020 13:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:55:09.013707
- Title: Supertagging-based Parsing with Linear Context-free Rewriting Systems
- Title(参考訳): リニアコンテキストフリーリライトシステムを用いたスーパータグに基づく構文解析
- Authors: Richard M\"orbitz and Thomas Ruprecht
- Abstract要約: LCFRSの最初のスーパータグに基づく導出について述べる。
従来のLCFRSベースの導出を精度と解析速度の両方で大幅に上回っている。
提案手法は, イングリッシュ・不連続ペン・ツリーバンクとドイツのコーパスNeGraとTigerを用いて実装し, 評価した。
- 参考スコア(独自算出の注目度): 4.873362301533825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first supertagging-based parser for LCFRS. It utilizes neural
classifiers and tremendously outperforms previous LCFRS-based parsers in both
accuracy and parsing speed. Moreover, our results keep up with the best
(general) discontinuous parsers, particularly the scores for discontinuous
constitutents are excellent. The heart of our approach is an efficient
lexicalization procedure which induces a lexical LCFRS from any discontinuous
treebank. It is an adaptation of previous work by M\"orbitz and Ruprecht
(2020). We also describe a modification to usual chart-based LCFRS parsing that
accounts for supertagging and introduce a procedure for the transformation of
lexical LCFRS derivations into equivalent parse trees of the original treebank.
Our approach is implemented and evaluated on the English Discontinuous Penn
Treebank and the German corpora NeGra and Tiger.
- Abstract(参考訳): LCFRSのための最初のスーパータグベースのパーサを提案する。
ニューラル分類器を使用し、従来のLCFRSベースのパーサを精度と解析速度の両方で大幅に上回っている。
さらに,本研究の結果は,最も優れた(一般)不連続なパーサー,特に不連続な構成員のスコアが優れている。
筆者らのアプローチの核心は,不連続木バンクからレキシカルLCFRSを誘導する効率的なレキシカル化法である。
これはM\"orbitz and Ruprecht"(2020年)による以前の作品の適応である。
また,正規のチャートベースのlcfr構文解析の修正について述べるとともに,辞書的lcfrs導出を元のツリーバンクの等価な構文解析木に変換する手順を提案する。
提案手法は, イングリッシュ・不連続ペン・ツリーバンクとドイツのコーパスNeGraとTigerを用いて実装し, 評価した。
関連論文リスト
- Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Self-Evaluation Guided Beam Search for Reasoning [61.523627290397556]
我々は,Large Language Model (LLM) の推論プロセスのガイドと校正を行うための段階的自己評価機構を導入する。
本稿では,ビームサーチによる自己評価ガイダンスを統合した復号アルゴリズムを提案する。
我々のアプローチは、GSM8K、AQuA、StrategyQAにおいて、対応するCodexバックボンドベースラインをわずかに精度6.34%、9.56%、および5.46%で上回る。
論文 参考訳(メタデータ) (2023-05-01T02:37:59Z) - Unsupervised Discontinuous Constituency Parsing with Mildly
Context-Sensitive Grammars [14.256041558454786]
教師なし不連続構文解析のための文脈に敏感な文法を用いた文法帰納法について検討した。
提案手法はルール構造を事前に修正し,パラメータ学習を最大限に活用することに焦点を当てる。
ドイツ語とオランダ語の実験から,我々の手法は連続的かつ不連続な構造を持つ言語的に意味のある木を誘導できることが示された。
論文 参考訳(メタデータ) (2022-12-18T18:10:45Z) - Unsupervised and Few-shot Parsing from Pretrained Language Models [56.33247845224995]
本研究では,事前学習言語モデルで学習した自己注意重み行列に基づいて,アウトアソシエーションスコアを算出した教師なし構成的パーシングモデルを提案する。
教師なしモデルからいくつかの注釈付き木を用いた数ショット構文解析モデルに拡張し、解析のためのより優れた線形射影行列を学習する。
FPIOは20本の注釈付き木で訓練され、50本の注釈付き木で訓練された過去の数枚の構文解析よりも優れていた。
論文 参考訳(メタデータ) (2022-06-10T10:29:15Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - Meta Ordinal Regression Forest For Learning with Unsure Lung Nodules [18.597354524446487]
この問題を順序回帰として定式化することにより、これらの不確実な結節を組み込むために、不確実データモデル(UDM)が提案された。
本論文では,最先端の経口回帰法を改善するメタ経口回帰林(MORF)を提案する。
LIDC-IDRIデータセットの実験結果から,既存の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-12-07T06:59:43Z) - Strongly Incremental Constituency Parsing with Graph Neural Networks [70.16880251349093]
文を構文木にパースすることは、NLPの下流アプリケーションに恩恵をもたらす。
トランジッションベースは、状態遷移システムでアクションを実行することでツリーを構築する。
既存のトランジションベースは主にシフト・リデュース・トランジション・システムに基づいている。
論文 参考訳(メタデータ) (2020-10-27T19:19:38Z) - Fast and Accurate Neural CRF Constituency Parsing [16.90190521285297]
この研究は、高速で正確なCRF行列計算を示す。
我々は、GPU上の大きなテンソル演算による損失に対する内部アルゴリズムをバッチ化し、効率的なバックプロパゲーションによる計算の外部アルゴリズムを避ける。
PTB, CTB5.1, CTB7の2段CRFは, w/o と w/BERT の両設定において,新しい最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2020-08-09T14:38:48Z) - Efficient Second-Order TreeCRF for Neural Dependency Parsing [23.426500262860777]
ディープラーニング(DL)時代には、構文解析モデルは極めて単純化され、性能にほとんど影響を与えない。
本稿では,2階目のTreeCRF拡張について述べる。
本研究では,内部とビタビアルゴリズムをバッチ化して直接大行列演算を行う手法を提案する。
論文 参考訳(メタデータ) (2020-05-03T03:18:59Z) - Pseudo-Convolutional Policy Gradient for Sequence-to-Sequence
Lip-Reading [96.48553941812366]
唇読解は唇運動系列から音声内容を推測することを目的としている。
seq2seqモデルの伝統的な学習プロセスには2つの問題がある。
本稿では,これら2つの問題に対処するために,PCPGに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T09:12:26Z) - Learning Optimal Classification Trees: Strong Max-Flow Formulations [8.10995244893652]
線形プログラミングの緩和を強くした最適二分分類木に対するフローベースMIP定式化を提案する。
我々はこの構造と最大フロー/最小カットの双対性を利用してベンダーズ分解法を導出する。
論文 参考訳(メタデータ) (2020-02-21T05:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。