論文の概要: Type-Driven Multi-Turn Corrections for Grammatical Error Correction
- arxiv url: http://arxiv.org/abs/2203.09136v1
- Date: Thu, 17 Mar 2022 07:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:48:52.409658
- Title: Type-Driven Multi-Turn Corrections for Grammatical Error Correction
- Title(参考訳): 文法的誤り訂正のためのタイプ駆動型多軸補正
- Authors: Shaopeng Lai, Qingyu Zhou, Jiali Zeng, Zhongli Li, Chao Li, Yunbo Cao,
Jinsong Su
- Abstract要約: 文法的誤り訂正(英: Grammatical Error Correction, GEC)は、文法的誤りを自動的に検出し、訂正することを目的としている。
これまでの研究では、露出バイアスに対処するためのデータ拡張アプローチに主に焦点が当てられていた。
GECのためのタイプ駆動型マルチTurn Correctionsアプローチを提案する。
- 参考スコア(独自算出の注目度): 46.34114495164071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grammatical Error Correction (GEC) aims to automatically detect and correct
grammatical errors. In this aspect, dominant models are trained by
one-iteration learning while performing multiple iterations of corrections
during inference. Previous studies mainly focus on the data augmentation
approach to combat the exposure bias, which suffers from two drawbacks. First,
they simply mix additionally-constructed training instances and original ones
to train models, which fails to help models be explicitly aware of the
procedure of gradual corrections. Second, they ignore the interdependence
between different types of corrections. In this paper, we propose a Type-Driven
Multi-Turn Corrections approach for GEC. Using this approach, from each
training instance, we additionally construct multiple training instances, each
of which involves the correction of a specific type of errors. Then, we use
these additionally-constructed training instances and the original one to train
the model in turn. Experimental results and in-depth analysis show that our
approach significantly benefits the model training. Particularly, our enhanced
model achieves state-of-the-art single-model performance on English GEC
benchmarks. We release our code at Github.
- Abstract(参考訳): 文法的誤り訂正(英: grammatical error correction、gec)は、文法的誤りを自動的に検出し、訂正することを目的とする。
この側面では、支配的なモデルは推論中に複数の修正を繰り返しながら一点学習によって訓練される。
これまでの研究では、主に2つの欠点に苦しむ露出バイアスに対処するためのデータ拡張アプローチに焦点を当てていた。
まず、モデルをトレーニングするために追加で構築されたトレーニングインスタンスとオリジナルのインスタンスを組み合わせるだけで、段階的な修正の手順を明確に認識するのに役立ちません。
第2に、異なるタイプの補正間の相互依存を無視する。
本稿では,GECのためのタイプ駆動型マルチTurn Correctionsアプローチを提案する。
このアプローチを用いることで、各トレーニングインスタンスから、特定のタイプのエラーの修正を含む複数のトレーニングインスタンスを新たに構築する。
そして、これらの追加構築されたトレーニングインスタンスと元のインスタンスを使ってモデルを順番にトレーニングします。
実験結果と深部分析により,本手法がモデルトレーニングに有益であることが示唆された。
特に,我々の拡張モデルは,英語GECベンチマークで最先端の単一モデル性能を実現する。
私たちはコードをgithubでリリースします。
関連論文リスト
- Efficient and Interpretable Grammatical Error Correction with Mixture of Experts [33.748193858033346]
文法的誤り訂正のための混合専門家モデルMoECEを提案する。
本モデルでは,有効パラメータの3倍少ないT5-XLの性能を実現する。
論文 参考訳(メタデータ) (2024-10-30T23:27:54Z) - Self-calibration for Language Model Quantization and Pruning [38.00221764773372]
量子化とプルーニングはモデル圧縮の基本的なアプローチである。
トレーニング後の環境では、最先端の量子化とプルーニングの方法はキャリブレーションデータを必要とする。
自己校正を解決策として提案する。
論文 参考訳(メタデータ) (2024-10-22T16:50:00Z) - Subtle Errors Matter: Preference Learning via Error-injected Self-editing [59.405145971637204]
eRror-Injected Self-Editing (RISE) と呼ばれる新しい好み学習フレームワークを提案する。
RISEは定義済みの微妙な誤りを正しい解の部分的なトークンに注入し、エラー軽減のためにハードペアを構築する。
RISEの有効性を検証する実験では、Qwen2-7B-Instructでは、GSM8Kでは3.0%、MATHでは7.9%が顕著に改善された。
論文 参考訳(メタデータ) (2024-10-09T07:43:38Z) - Training Language Models to Self-Correct via Reinforcement Learning [98.35197671595343]
自己補正は、現代の大規模言語モデル(LLM)では、ほとんど効果がないことが判明した。
完全自己生成データを用いたLLMの自己補正能力を大幅に向上させるマルチターンオンライン強化学習手法であるSCoReを開発した。
SCoReは最先端の自己補正性能を実現し,MATHとHumanEvalでそれぞれ15.6%,9.1%向上した。
論文 参考訳(メタデータ) (2024-09-19T17:16:21Z) - Chinese Spelling Correction as Rephrasing Language Model [63.65217759957206]
文中のスペル誤りを検知し,訂正することを目的とした中国語スペル補正(CSC)について検討する。
現在の最先端の手法は、CSCをシーケンスタギングタスクと文対上の細いBERTベースのモデルとみなしている。
本稿では,文字から文字へのタグ付けではなく,追加のスロットを埋め込むことで文全体を言い換える言語モデル(ReLM)を提案する。
論文 参考訳(メタデータ) (2023-08-17T06:04:28Z) - Rethinking Masked Language Modeling for Chinese Spelling Correction [70.85829000570203]
言語モデルと誤りモデルという2つの異なるモデルによる共同決定として,中国語のスペル補正(CSC)について検討する。
細調整されたBERTは、言語モデルに不適合なままエラーモデルに過度に適合する傾向にあり、その結果、分布外エラーパターンへの一般化が不十分であることがわかった。
微調整中に入力シーケンスから20%の非エラートークンをランダムにマスキングする非常に単純な戦略は、エラーモデルを犠牲にすることなく、はるかに優れた言語モデルを学ぶのに十分であることを示す。
論文 参考訳(メタデータ) (2023-05-28T13:19:12Z) - Exploration and Exploitation: Two Ways to Improve Chinese Spelling
Correction Models [51.744357472072416]
本稿では,モデルの弱点を継続的に識別し,より価値の高いトレーニングインスタンスを生成する手法を提案する。
実験結果から, 事前学習戦略と組み合わさって, 複数のCSCモデルの一般化とロバスト性を改善することができることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:33Z) - Grammatical Error Correction as GAN-like Sequence Labeling [45.19453732703053]
本稿では,Gumbel-Softmaxサンプリングをジェネレータとする文法的誤り検出器と文法的誤り検出器とからなるGANライクなシーケンスラベリングモデルを提案する。
いくつかの評価ベンチマークの結果、提案手法は有効であり、従来の最先端のベースラインを改善することが示されている。
論文 参考訳(メタデータ) (2021-05-29T04:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。