論文の概要: A Taxonomy of Errors in English as she is spoke: Toward an AI-Based Method of Error Analysis for EFL Writing Instruction
- arxiv url: http://arxiv.org/abs/2512.00392v1
- Date: Sat, 29 Nov 2025 08:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.218107
- Title: A Taxonomy of Errors in English as she is spoke: Toward an AI-Based Method of Error Analysis for EFL Writing Instruction
- Title(参考訳): 英語における誤りの分類--EFL書記指導のためのAIによる誤り分析法を目指して-
- Authors: Damian Heywood, Joseph Andrew Carrier, Kyu-Hong Hwang,
- Abstract要約: 本研究では,英語における誤りの特定,分類,訂正を目的としたAI支援誤り解析システムの開発について述べる。
この体系は、Corder (1967)、Richards (1971)、James (1998) の言語理論に基づく詳細な分類法を採用している。
AIは様々なエラータイプを特定したが、コンテキスト理解の制限を示し、時には未コーディングエラーに遭遇した時に新しいエラーカテゴリを生成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study describes the development of an AI-assisted error analysis system designed to identify, categorize, and correct writing errors in English. Utilizing Large Language Models (LLMs) like Claude 3.5 Sonnet and DeepSeek R1, the system employs a detailed taxonomy grounded in linguistic theories from Corder (1967), Richards (1971), and James (1998). Errors are classified at both word and sentence levels, covering spelling, grammar, and punctuation. Implemented through Python-coded API calls, the system provides granular feedback beyond traditional rubric-based assessments. Initial testing on isolated errors refined the taxonomy, addressing challenges like overlapping categories. Final testing used "English as she is spoke" by Jose da Fonseca (1855), a text rich with authentic linguistic errors, to evaluate the system's capacity for handling complex, multi-layered analysis. The AI successfully identified diverse error types but showed limitations in contextual understanding and occasionally generated new error categories when encountering uncoded errors. This research demonstrates AI's potential to transform EFL instruction by automating detailed error analysis and feedback. While promising, further development is needed to improve contextual accuracy and expand the taxonomy to stylistic and discourse-level errors.
- Abstract(参考訳): 本研究では,英語における誤りの特定,分類,訂正を目的としたAI支援誤り解析システムの開発について述べる。
Claude 3.5 Sonnet や DeepSeek R1 のようなLarge Language Models (LLMs) を利用することで、Corder (1967)、Richards (1971)、James (1998) の言語理論に基づく詳細な分類法を採用している。
エラーは単語レベルと文レベルの両方で分類され、スペル、文法、句読点をカバーしている。
Pythonでコード化されたAPIコールを通じて実装されたこのシステムは、従来のルーリックベースのアセスメント以上の細かいフィードバックを提供する。
分離されたエラーの最初のテストは分類を洗練させ、重複するカテゴリのような課題に対処した。
最終テストでは、複雑な多層解析を扱うシステムの能力を評価するために、言語エラーに富んだヨセ・ダ・フォンセカ(José da Fonseca)(1855年)による「英語で話される英語」を使用した。
AIは様々なエラータイプを特定したが、コンテキスト理解の制限を示し、時には未コーディングエラーに遭遇した時に新しいエラーカテゴリを生成した。
本研究は、詳細なエラー分析とフィードバックを自動化することにより、EFL命令を変換するAIの可能性を示す。
将来性はあるものの、文脈的正確性を改善し、分類学をスタイリスティックおよび談話レベルの誤りに拡張するためにさらなる開発が必要である。
関連論文リスト
- FEANEL: A Benchmark for Fine-Grained Error Analysis in K-12 English Writing [68.23874413455594]
本稿では,英語学習者のための細粒度誤り解析(FEANEL)ベンチマークを提案する。
ベンチマークは、小学生と中学生が書いた1000のエッセイから成っている。
各エラーは言語教育の専門家によって注釈付けされ、彼らが共同開発した音声に基づく分類法を用いて、タイプ、重大度、説明的フィードバックによって分類される。
論文 参考訳(メタデータ) (2025-11-28T05:17:45Z) - Annotating Errors in English Learners' Written Language Production: Advancing Automated Written Feedback Systems [25.047364950581265]
本稿では,各エラーのエラータイプと一般化可能性をモデル化するアノテーションフレームワークを提案する。
我々は、注釈付き学習者の誤りとそれに対応する人間によるフィードバックコメントのデータセットを収集する。
我々は、フィードバックを生成するためのキーワード誘導、キーワードフリー、テンプレート誘導の評価を行う。
論文 参考訳(メタデータ) (2025-08-09T04:06:18Z) - Tgea: An error-annotated dataset and benchmark tasks for text generation from pretrained language models [57.758735361535486]
TGEAは、事前訓練された言語モデル(PLM)からテキストを生成するためのエラーアノテートデータセットである。
PLM生成文で発生する24種類の誤りを網羅する誤り分類を作成する。
PLM生成テキストに対する包括的なアノテーションを備えた最初のデータセットである。
論文 参考訳(メタデータ) (2025-03-06T09:14:02Z) - Error Classification of Large Language Models on Math Word Problems: A Dynamically Adaptive Framework [79.40678802098026]
数学の単語問題は、大規模言語モデルの推論能力を評価するための重要なベンチマークとなる。
現在のエラー分類法は静的および事前定義されたカテゴリに依存している。
本稿では,共通なエラーパターンを明示的なガイダンスとして組み込んだEAP(Error-Aware Prompting)を提案する。
論文 参考訳(メタデータ) (2025-01-26T16:17:57Z) - xCOMET: Transparent Machine Translation Evaluation through Fine-grained
Error Detection [21.116517555282314]
xCOMETは、機械翻訳評価アプローチのギャップを埋めるために設計されたオープンソースの学習メトリクスである。
文レベルの評価とエラースパン検出機能を統合し、あらゆるタイプの評価で最先端のパフォーマンスを示す。
また,ストレステストによるロバストネス解析を行い,xCOMETは局所的な臨界誤差や幻覚を同定できることを示す。
論文 参考訳(メタデータ) (2023-10-16T15:03:14Z) - Improving Pre-trained Language Models with Syntactic Dependency
Prediction Task for Chinese Semantic Error Recognition [52.55136323341319]
既存の中国語のテキスト誤り検出は主にスペルと単純な文法的誤りに焦点を当てている。
中国の意味的誤りは、人間が容易に認識できないほど過小評価され、複雑である。
論文 参考訳(メタデータ) (2022-04-15T13:55:32Z) - Scarecrow: A Framework for Scrutinizing Machine Text [69.26985439191151]
我々はScarecrowと呼ばれる新しい構造化されたクラウドソースエラーアノテーションスキーマを導入する。
Scarecrowは1.3kの人文と機械が生成する英語ニューステキストの13kのアノテーションを収集する。
これらの結果は,現在および将来のテキスト生成システムの評価において,Scarecrowアノテーションの価値を示すものである。
論文 参考訳(メタデータ) (2021-07-02T22:37:03Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。