論文の概要: Supertagging-based Parsing with Linear Context-free Rewriting Systems
- arxiv url: http://arxiv.org/abs/2010.10238v1
- Date: Tue, 20 Oct 2020 13:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:55:09.013707
- Title: Supertagging-based Parsing with Linear Context-free Rewriting Systems
- Title(参考訳): リニアコンテキストフリーリライトシステムを用いたスーパータグに基づく構文解析
- Authors: Richard M\"orbitz and Thomas Ruprecht
- Abstract要約: LCFRSの最初のスーパータグに基づく導出について述べる。
従来のLCFRSベースの導出を精度と解析速度の両方で大幅に上回っている。
提案手法は, イングリッシュ・不連続ペン・ツリーバンクとドイツのコーパスNeGraとTigerを用いて実装し, 評価した。
- 参考スコア(独自算出の注目度): 4.873362301533825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first supertagging-based parser for LCFRS. It utilizes neural
classifiers and tremendously outperforms previous LCFRS-based parsers in both
accuracy and parsing speed. Moreover, our results keep up with the best
(general) discontinuous parsers, particularly the scores for discontinuous
constitutents are excellent. The heart of our approach is an efficient
lexicalization procedure which induces a lexical LCFRS from any discontinuous
treebank. It is an adaptation of previous work by M\"orbitz and Ruprecht
(2020). We also describe a modification to usual chart-based LCFRS parsing that
accounts for supertagging and introduce a procedure for the transformation of
lexical LCFRS derivations into equivalent parse trees of the original treebank.
Our approach is implemented and evaluated on the English Discontinuous Penn
Treebank and the German corpora NeGra and Tiger.
- Abstract(参考訳): LCFRSのための最初のスーパータグベースのパーサを提案する。
ニューラル分類器を使用し、従来のLCFRSベースのパーサを精度と解析速度の両方で大幅に上回っている。
さらに,本研究の結果は,最も優れた(一般)不連続なパーサー,特に不連続な構成員のスコアが優れている。
筆者らのアプローチの核心は,不連続木バンクからレキシカルLCFRSを誘導する効率的なレキシカル化法である。
これはM\"orbitz and Ruprecht"(2020年)による以前の作品の適応である。
また,正規のチャートベースのlcfr構文解析の修正について述べるとともに,辞書的lcfrs導出を元のツリーバンクの等価な構文解析木に変換する手順を提案する。
提案手法は, イングリッシュ・不連続ペン・ツリーバンクとドイツのコーパスNeGraとTigerを用いて実装し, 評価した。
関連論文リスト
- Integrating Supertag Features into Neural Discontinuous Constituent Parsing [0.0]
伝統的な選挙区の見解では、構成要素は隣接した単語で構成されており、ドイツ語のような言語で一般的である。
トランジションベースの構文解析は、大きな注釈付きコーパス上で教師あり学習を用いて生のテキストを入力した木を生成する。
論文 参考訳(メタデータ) (2024-10-11T12:28:26Z) - Graph-Structured Speculative Decoding [52.94367724136063]
投機的復号化は、大規模言語モデルの推論を加速する有望な手法として登場した。
本稿では, 有向非巡回グラフ(DAG)を応用して, 起案された仮説を管理する革新的な手法を提案する。
我々は1.73$times$から1.96$times$に顕著なスピードアップを観察し、標準投機的復号法を大幅に上回った。
論文 参考訳(メタデータ) (2024-07-23T06:21:24Z) - Calibrating LLMs with Preference Optimization on Thought Trees for Generating Rationale in Science Question Scoring [16.38771834692938]
より忠実な論理を生成できる新しいフレームワークを提案し、さらに重要なことに、ブラックボックススコアリングシステムと性能をマッチングする。
まず,Large Language Models (LLM) をクエリして思考木を生成することで,人間の評価プロセスを模倣する。
次に、各思考木経路から中間的評価決定を要約し、合成的合理性データと合理性選好データを作成する。
論文 参考訳(メタデータ) (2024-06-28T14:33:05Z) - Bypass Back-propagation: Optimization-based Structural Pruning for Large Language Models via Policy Gradient [57.9629676017527]
大規模言語モデルを用いた最適化に基づく構造解析手法を提案する。
我々は,プルーニングモデルの損失を最適化することにより,確率空間におけるプルーニングマスクを直接学習する。
A100 GPUで13Bモデルに対して約35GBのメモリで2.7時間動作させる。
論文 参考訳(メタデータ) (2024-06-15T09:31:03Z) - Estimating the Hessian Matrix of Ranking Objectives for Stochastic Learning to Rank with Gradient Boosted Trees [63.18324983384337]
グラディエントブースト決定木(GBDT)のランク付け手法について紹介する。
我々の主な貢献は、二階微分、すなわちヘッセン行列に対する新しい推定器である。
推定器を既存のPL-Rankフレームワークに組み込む。
論文 参考訳(メタデータ) (2024-04-18T13:53:32Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Self-Evaluation Guided Beam Search for Reasoning [61.523627290397556]
我々は,Large Language Model (LLM) の推論プロセスのガイドと校正を行うための段階的自己評価機構を導入する。
本稿では,ビームサーチによる自己評価ガイダンスを統合した復号アルゴリズムを提案する。
我々のアプローチは、GSM8K、AQuA、StrategyQAにおいて、対応するCodexバックボンドベースラインをわずかに精度6.34%、9.56%、および5.46%で上回る。
論文 参考訳(メタデータ) (2023-05-01T02:37:59Z) - Unsupervised Discontinuous Constituency Parsing with Mildly
Context-Sensitive Grammars [14.256041558454786]
教師なし不連続構文解析のための文脈に敏感な文法を用いた文法帰納法について検討した。
提案手法はルール構造を事前に修正し,パラメータ学習を最大限に活用することに焦点を当てる。
ドイツ語とオランダ語の実験から,我々の手法は連続的かつ不連続な構造を持つ言語的に意味のある木を誘導できることが示された。
論文 参考訳(メタデータ) (2022-12-18T18:10:45Z) - Meta Ordinal Regression Forest For Learning with Unsure Lung Nodules [18.597354524446487]
この問題を順序回帰として定式化することにより、これらの不確実な結節を組み込むために、不確実データモデル(UDM)が提案された。
本論文では,最先端の経口回帰法を改善するメタ経口回帰林(MORF)を提案する。
LIDC-IDRIデータセットの実験結果から,既存の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-12-07T06:59:43Z) - Strongly Incremental Constituency Parsing with Graph Neural Networks [70.16880251349093]
文を構文木にパースすることは、NLPの下流アプリケーションに恩恵をもたらす。
トランジッションベースは、状態遷移システムでアクションを実行することでツリーを構築する。
既存のトランジションベースは主にシフト・リデュース・トランジション・システムに基づいている。
論文 参考訳(メタデータ) (2020-10-27T19:19:38Z) - Learning Optimal Classification Trees: Strong Max-Flow Formulations [8.10995244893652]
線形プログラミングの緩和を強くした最適二分分類木に対するフローベースMIP定式化を提案する。
我々はこの構造と最大フロー/最小カットの双対性を利用してベンダーズ分解法を導出する。
論文 参考訳(メタデータ) (2020-02-21T05:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。