論文の概要: Exploring the Feasibility of Multilingual Grammatical Error Correction with a Single LLM up to 9B parameters: A Comparative Study of 17 Models
- arxiv url: http://arxiv.org/abs/2505.06004v1
- Date: Fri, 09 May 2025 12:35:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.264986
- Title: Exploring the Feasibility of Multilingual Grammatical Error Correction with a Single LLM up to 9B parameters: A Comparative Study of 17 Models
- Title(参考訳): 最大9Bパラメータによる多言語文法的誤り訂正の可能性を探る:17モデルの比較検討
- Authors: Dawid Wisniewski, Antoni Solarski, Artur Nowakowski,
- Abstract要約: 我々は、英語、ドイツ語、イタリア語、スウェーデン語で記述されたテキストの文法的問題を修正するために使用される17の人気のあるモデルの性能を分析した。
4言語すべてで文法的正しさを向上させる6つのモデルをリストアップし、Gemma 9Bが現在検討されている言語で最高のパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 1.5812312064457867
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent language models can successfully solve various language-related tasks, and many understand inputs stated in different languages. In this paper, we explore the performance of 17 popular models used to correct grammatical issues in texts stated in English, German, Italian, and Swedish when using a single model to correct texts in all those languages. We analyze the outputs generated by these models, focusing on decreasing the number of grammatical errors while keeping the changes small. The conclusions drawn help us understand what problems occur among those models and which models can be recommended for multilingual grammatical error correction tasks. We list six models that improve grammatical correctness in all four languages and show that Gemma 9B is currently the best performing one for the languages considered.
- Abstract(参考訳): 最近の言語モデルは様々な言語関連タスクをうまく解き、多くの言語で記述された入力を理解することができる。
本稿では, 英語, ドイツ語, イタリア語, スウェーデン語で記述されたテキストの文法的問題を修正するために使用される17のポピュラーなモデルの性能について検討する。
これらのモデルによって生成された出力を分析し、変化を小さく保ちながら文法的誤りの数を減らすことに重点を置いている。
得られた結論は、これらのモデルで発生する問題と、多言語文法的誤り訂正タスクにおいてどのモデルが推奨されるかを理解するのに役立ちます。
4言語すべてで文法的正しさを向上させる6つのモデルをリストアップし、Gemma 9Bが現在検討されている言語で最高のパフォーマンスを示している。
関連論文リスト
- Using Language Models to Disambiguate Lexical Choices in Translation [13.795280427753648]
翻訳において、ソース言語の1つの単語で表される概念は、ターゲット言語で複数のバリエーションを持つことができる。
DTAiLSは1,377の文対のデータセットで、英語から翻訳する際の言語間概念の変化を示す。
論文 参考訳(メタデータ) (2024-11-08T18:48:57Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - Multilingual BERT has an accent: Evaluating English influences on
fluency in multilingual models [23.62852626011989]
我々は,高次情報源言語における文法構造が低次情報源言語に肥大化したことを示す。
このバイアスは、多言語モデルの流布度とモノリンガルのスペイン語とギリシア語のモデルの流布度を比較する新しい方法によって示される。
論文 参考訳(メタデータ) (2022-10-11T17:06:38Z) - Few-shot Learning with Multilingual Language Models [66.49496434282564]
多様な言語群をカバーするバランスの取れたコーパス上で,多言語の自動回帰言語モデルを訓練する。
私たちの最大のモデルは、20以上の代表言語で数ショットの学習において、新しい最先端の技術を定めています。
本稿では,モデルがどこで成功し,失敗するかを詳細に分析し,特に言語間の文脈内学習を可能にすることを示す。
論文 参考訳(メタデータ) (2021-12-20T16:52:35Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。