論文の概要: Probing for targeted syntactic knowledge through grammatical error
detection
- arxiv url: http://arxiv.org/abs/2210.16228v1
- Date: Fri, 28 Oct 2022 16:01:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:05:51.207254
- Title: Probing for targeted syntactic knowledge through grammatical error
detection
- Title(参考訳): 文法的誤り検出による構文的知識の探索
- Authors: Christopher Davis, Christopher Bryant, Andrew Caines, Marek Rei, Paula
Buttery
- Abstract要約: 本稿では,事前学習した英語モデルを評価するために,文法的誤り検出を診断プローブとして提案する。
我々は、英語の第二言語学習者とウィキペディアの編集の両方から、公的な注釈付きトレーニングデータを活用する。
マスク付き言語モデルでは,SVAエラー検出に関連する情報を線形に符号化し,自動回帰モデルはベースラインと同等に動作することがわかった。
- 参考スコア(独自算出の注目度): 13.653209309144593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Targeted studies testing knowledge of subject-verb agreement (SVA) indicate
that pre-trained language models encode syntactic information. We assert that
if models robustly encode subject-verb agreement, they should be able to
identify when agreement is correct and when it is incorrect. To that end, we
propose grammatical error detection as a diagnostic probe to evaluate
token-level contextual representations for their knowledge of SVA. We evaluate
contextual representations at each layer from five pre-trained English language
models: BERT, XLNet, GPT-2, RoBERTa, and ELECTRA. We leverage public annotated
training data from both English second language learners and Wikipedia edits,
and report results on manually crafted stimuli for subject-verb agreement. We
find that masked language models linearly encode information relevant to the
detection of SVA errors, while the autoregressive models perform on par with
our baseline. However, we also observe a divergence in performance when probes
are trained on different training sets, and when they are evaluated on
different syntactic constructions, suggesting the information pertaining to SVA
error detection is not robustly encoded.
- Abstract(参考訳): 主観的合意(SVA)の知識を検証したターゲット研究は、事前学習された言語モデルが構文情報を符号化していることを示している。
モデルが主観的な合意をしっかりとエンコードしているなら、いつ合意が正しいのか、いつ正しくないかを特定できるべきだ、と我々は主張する。
そこで我々は,SVAの知識に対して,トークンレベルの文脈表現を評価するための診断プローブとして文法的誤り検出を提案する。
各層における文脈表現は, BERT, XLNet, GPT-2, RoBERTa, ELECTRAの5つの事前学習英語モデルから評価する。
英語の第二言語学習者およびウィキペディア編集者の公開注記学習データを活用し,手作業による対訳合意の刺激について報告する。
マスク付き言語モデルでは,SVAエラー検出に関連する情報を線形に符号化し,自動回帰モデルはベースラインと同等に動作することがわかった。
しかし,プローブが異なるトレーニングセットで訓練された場合や,異なる構文構造で評価された場合には,SVAエラー検出に関する情報が強固に符号化されていないことが示唆された。
関連論文リスト
- Leveraging Language Identification to Enhance Code-Mixed Text
Classification [0.7340017786387767]
既存のディープラーニングモデルは、コード混合テキストの暗黙の言語情報を活用できない。
本研究の目的は,低リソースのCode-Mixed Hindi- Englishデータセット上でのBERTモデルの性能向上である。
論文 参考訳(メタデータ) (2023-06-08T06:43:10Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - uChecker: Masked Pretrained Language Models as Unsupervised Chinese
Spelling Checkers [23.343006562849126]
そこで我々はtextbfuChecker というフレームワークを提案し,教師なしのスペル検出と修正を行う。
BERTのようなマスキーク事前訓練言語モデルをバックボーンモデルとして導入する。
各種フレキシブルなMASKの操作に特化して,マスク付き言語モデルを微調整するためのコンフュージョンセット誘導マスキング戦略を提案する。
論文 参考訳(メタデータ) (2022-09-15T05:57:12Z) - Improving Pre-trained Language Models with Syntactic Dependency
Prediction Task for Chinese Semantic Error Recognition [52.55136323341319]
既存の中国語のテキスト誤り検出は主にスペルと単純な文法的誤りに焦点を当てている。
中国の意味的誤りは、人間が容易に認識できないほど過小評価され、複雑である。
論文 参考訳(メタデータ) (2022-04-15T13:55:32Z) - A Syntax-Guided Grammatical Error Correction Model with Dependency Tree
Correction [83.14159143179269]
文法的誤り訂正(英: Grammatical Error Correction, GEC)は、文中の文法的誤りを検出し、訂正するタスクである。
本稿では,依存木の構文知識を利用するためのグラフアテンション機構を採用した構文誘導型GECモデル(SG-GEC)を提案する。
我々は、GECタスクの公開ベンチマークでモデルを評価し、競争結果を得る。
論文 参考訳(メタデータ) (2021-11-05T07:07:48Z) - Exploring the Capacity of a Large-scale Masked Language Model to
Recognize Grammatical Errors [3.55517579369797]
トレーニングデータの5~10%は、BERTに基づく誤り検出法で、非言語モデルに基づく手法と同等の性能を実現するのに十分であることを示す。
また、擬似誤差データを用いて、様々な種類の誤りを認識するための学習ルールにおいて、実際にそのような優れた特性を示すことを示す。
論文 参考訳(メタデータ) (2021-08-27T10:37:14Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z) - Adversarial Transfer Learning for Punctuation Restoration [58.2201356693101]
句読点予測のためのタスク不変知識を学習するために,逆多タスク学習を導入する。
IWSLT2011データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-04-01T06:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。