論文の概要: Bangla Grammatical Error Detection Using T5 Transformer Model
- arxiv url: http://arxiv.org/abs/2303.10612v1
- Date: Sun, 19 Mar 2023 09:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:13:07.469328
- Title: Bangla Grammatical Error Detection Using T5 Transformer Model
- Title(参考訳): T5変換器モデルを用いたバングラ文法誤差検出
- Authors: H.A.Z. Sameen Shahgir, Khondker Salman Sayeed
- Abstract要約: 本稿では,テキスト変換器(T5言語モデル)を用いたバングラ語の文法的誤り検出手法を提案する。
T5モデルは、主に翻訳用に設計されており、このタスクのためには特別に設計されていないため、エラー検出のタスクに適応するためには、広範な後処理が必要であった。
実験により,Banglaにおける文法的誤りの検出において,T5モデルが低Levenshtein距離を達成可能であることが示されたが,処理後処理は最適性能を実現するために不可欠である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a method for detecting grammatical errors in Bangla using
a Text-to-Text Transfer Transformer (T5) Language Model, using the small
variant of BanglaT5, fine-tuned on a corpus of 9385 sentences where errors were
bracketed by the dedicated demarcation symbol. The T5 model was primarily
designed for translation and is not specifically designed for this task, so
extensive post-processing was necessary to adapt it to the task of error
detection. Our experiments show that the T5 model can achieve low Levenshtein
Distance in detecting grammatical errors in Bangla, but post-processing is
essential to achieve optimal performance. The final average Levenshtein
Distance after post-processing the output of the fine-tuned model was 1.0394 on
a test set of 5000 sentences. This paper also presents a detailed analysis of
the errors detected by the model and discusses the challenges of adapting a
translation model for grammar. Our approach can be extended to other languages,
demonstrating the potential of T5 models for detecting grammatical errors in a
wide range of languages.
- Abstract(参考訳): 本稿では,t5言語モデルであるtext-to-text transfer transformer (t5) を用いたバングラ語における文法的誤りの検出法について述べる。
T5モデルは、主に翻訳用に設計されており、このタスクのためには特別に設計されていないため、エラー検出のタスクに適応するためには広範な後処理が必要である。
実験の結果,T5モデルはバングラの文法的誤りを検出できるが,処理後処理は最適性能を実現するために不可欠であることがわかった。
細調整モデルの出力を後処理した後のLevenshtein Distanceの最終的な平均値は5000文の試験セットで1.0394であった。
また, モデルが検出した誤りの詳細な解析を行い, 文法に翻訳モデルを適用する際の課題について考察する。
我々のアプローチは他の言語にも拡張でき、幅広い言語で文法的誤りを検出するT5モデルの可能性を実証することができる。
関連論文リスト
- Bangla Grammatical Error Detection Leveraging Transformer-based Token Classification [0.0]
世界で7番目に話されている言語であるバングラ語における自動文法チェッカーの開発について検討する。
本手法では,トークン分類問題としてタスクを分割し,最先端のトランスフォーマーモデルを活用する。
本システムは,様々な情報源から得られた25,000以上のテキストからなるデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-11-13T05:22:45Z) - mmT5: Modular Multilingual Pre-Training Solves Source Language
Hallucinations [54.42422445568523]
mmT5はモジュール型多言語シーケンス・ツー・シーケンスモデルである。
言語固有の情報を言語に依存しない情報から切り離す。
mT5と比較して、mT5はゼロショット設定で正しい言語でテキストを生成する率を7%から99%に向上させる。
論文 参考訳(メタデータ) (2023-05-23T16:38:01Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - idT5: Indonesian Version of Multilingual T5 Transformer [0.0]
インドネシア語は2億人近い人々によって話されており、世界で10番目に話されている言語である。
本研究では,mT5モデルがインドネシア語にのみ適用され,インドネシア語のみに限定した訓練済みのT5モデルが得られた。
本モデルに基づく微調整モデルでは,SAでは77.18%,mT5モデルより8%高い精度を示し,QGおよびQAではmT5モデルとほぼ同じスコアを得た。
論文 参考訳(メタデータ) (2023-02-02T03:56:16Z) - Evaluating Byte and Wordpiece Level Models for Massively Multilingual
Semantic Parsing [3.431659287330068]
バイトレベル(ByT5)とワードピースベース(mT5)をMASSIVE多言語意味解析データセットの51言語におけるシーケンスモデルと比較する。
すべての言語からのゴールドデータに基づいてトレーニングされたモデルに対して、正確なマッチング精度のギャップを5ポイントに縮めることができます。
論文 参考訳(メタデータ) (2022-12-14T13:48:32Z) - Conciseness: An Overlooked Language Task [11.940413163824887]
タスクを定義し、要約や単純化といった関連するタスクとは異なることを示す。
大規模なニューラルネットワークモデルによるゼロショットセットアップがよく機能しない場合、簡潔性は難しい課題であることを示す。
論文 参考訳(メタデータ) (2022-11-08T09:47:11Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z) - TuringAdvice: A Generative and Dynamic Evaluation of Language Use [90.3029315711237]
言語理解モデルのための新しい課題タスクとデータセットであるTuringAdviceを提案する。
現実の人が現在直面している記述された状況を考えると、モデルは自然言語で有益なアドバイスを生成する必要がある。
実証的な結果は、今日のモデルがTuringAdviceで苦労していることを示している。
論文 参考訳(メタデータ) (2020-04-07T18:00:03Z) - Towards Minimal Supervision BERT-based Grammar Error Correction [81.90356787324481]
我々は、事前訓練された言語モデルからコンテキスト情報を取り入れて、アノテーションを活用し、多言語シナリオの恩恵を得ようとしている。
その結果、文法的誤り訂正タスクにおいて、変換器(BERT)からの双方向表現の強い可能性を示す。
論文 参考訳(メタデータ) (2020-01-10T15:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。