論文の概要: Expectation-based Minimalist Grammars
- arxiv url: http://arxiv.org/abs/2109.13871v1
- Date: Tue, 28 Sep 2021 17:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 16:48:07.279167
- Title: Expectation-based Minimalist Grammars
- Title(参考訳): 期待に基づくミニマリスト文法
- Authors: Cristiano Chesi
- Abstract要約: expectation-based Minimalist Grammars (e-MGs) is simple version of (Conflated) Minimalist Grammars, (C)MGs, formalized by Stabler (Stabler, 2011, 2013 1997)
重要な単純化は、語彙的に符号化された分類上のトップダウン期待に依存するだけで、運転構造の構築である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Expectation-based Minimalist Grammars (e-MGs) are simplified versions of the
(Conflated) Minimalist Grammars, (C)MGs, formalized by Stabler (Stabler, 2011,
2013, 1997) and Phase-based Minimalist Grammars, PMGs (Chesi, 2005, 2007;
Stabler, 2011). The crucial simplification consists of driving structure
building only by relying on lexically encoded categorial top-down expectations.
The commitment on a top-down derivation (as in e-MGs and PMGs, as opposed to
(C)MGs, Chomsky, 1995; Stabler, 2011) allows us to define a core derivation
that should be the same in both parsing and generation (Momma & Phillips,
2018).
- Abstract(参考訳): 期待に基づくミニマリスト文法 (e-mgs) は、stabler (stabler, 2011, 2013) と phase-based minimalist grammars, pmgs (chesi, 2005, 2007; stabler, 2011) によって形式化された (conflated) ミニマリスト文法 (c)mgs の単純化版である。
重要な単純化は、語彙的に符号化された分類上のトップダウン期待に依存するだけで、運転構造の構築である。
トップダウン派生へのコミットメント((C)MGs, Chomsky, 1995; Stabler, 2011)とは対照的に、e-MGs や PMGs のように)は、解析と生成の両方で同じはずのコア派生を定義することができる(Momma & Phillips, 2018)。
関連論文リスト
- Metadata Conditioning Accelerates Language Model Pre-training [76.54265482251454]
本稿では,Metadata Conditioning then Cooldown (MeCo) と呼ばれる新しい手法を提案する。
MeCoはまず、トレーニング中にテキストと一緒にメタデータを提供し、後に標準テキストのみのフェーズを使用して、メタデータなしでモデルが正常に機能できるようにする。
MeCoは驚くほどシンプルで、計算オーバーヘッドを追加せず、より有能でステアブルな言語モデルを生成するという約束を示す。
論文 参考訳(メタデータ) (2025-01-03T18:59:23Z) - Dependency-Aware Semi-Structured Sparsity of GLU Variants in Large Language Models [15.56145303022529]
大規模言語モデルに対する依存性を意識した半構造化スパシティ(DaSS)を提案する。
DaSSは構造依存をマグニチュードベースのプルーニングに組み込む。
LLaMA2, Mistral, Gemmaモデルファミリーの実証評価では、DaSSはSparseGPTとWandaの両方でハードウェアフレンドリーなN:Mスペーサティパターンを実現している。
論文 参考訳(メタデータ) (2024-05-03T09:13:13Z) - Old and New Minimalism: a Hopf algebra comparison [0.12891210250935145]
より新しいミニマリズムの定式化は、基礎となる数学的構造の観点から純粋に有利であることを示す。
この数学的構造は、内的マージと外的マージが、ミニマリズムの古い定式化において大きく異なる役割を担っていることを示している。
論文 参考訳(メタデータ) (2023-06-17T06:31:36Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - LM-Critic: Language Models for Unsupervised Grammatical Error Correction [128.9174409251852]
文を文法的に判断する LM-Critic の定義において,事前訓練された言語モデル (LM) の活用法を示す。
このLM-Critic と BIFI と、ラベルなし文の集合を併用して、現実的な非文法的/文法的ペアをブートストラップし、修正子を訓練する。
論文 参考訳(メタデータ) (2021-09-14T17:06:43Z) - Minimax and Neyman-Pearson Meta-Learning for Outlier Languages [9.321802232631576]
モデルに依存しないメタラーニングにおけるi.d.仮定は、言語間NLPに不適であると主張する。
Minimax MAMLは言語間の最大リスクを低減し、Neyman-Pearson MAMLは言語間のリスクを最大しきい値に制限する。
論文 参考訳(メタデータ) (2021-06-02T09:53:06Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z) - CLiMP: A Benchmark for Chinese Language Model Evaluation [17.13061722469761]
中国語の言語最小対(CLiMP)のコーパスを紹介します。
climpはマンダリンにおける16の構文コントラストのための1000個の最小ペア(mps)で構成され、9つの主要なマンダリン言語現象をカバーする。
CLiMP上の11種類のLMを評価し,n-gram,LSTM,中国BERTについて検討した。
論文 参考訳(メタデータ) (2021-01-26T23:16:29Z) - Meta-Embeddings Based On Self-Attention [7.303794140490842]
自己保持機構,すなわちDuoに基づくメタ埋め込みモデルを提案する。
0.4M未満のパラメータで、Duoメカニズムは20NGのようなテキスト分類タスクで最先端の精度を達成する。
また,複数の単語埋め込みに基づく最初の機械翻訳モデルである,機械翻訳のためのメタ埋め込みシーケンスモデルを提案する。
論文 参考訳(メタデータ) (2020-03-03T07:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。