論文の概要: Corrections Meet Explanations: A Unified Framework for Explainable Grammatical Error Correction
- arxiv url: http://arxiv.org/abs/2502.15261v1
- Date: Fri, 21 Feb 2025 07:42:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:11:10.942522
- Title: Corrections Meet Explanations: A Unified Framework for Explainable Grammatical Error Correction
- Title(参考訳): 説明を伴う訂正: 説明可能な文法的誤り訂正のための統一フレームワーク
- Authors: Jingheng Ye, Shang Qin, Yinghui Li, Hai-Tao Zheng, Shen Wang, Qingsong Wen,
- Abstract要約: 本稿では,説明・修正タスクを生成的に統合した統一的な説明可能なGECフレームワークであるEXGECを紹介する。
様々なNLPモデル(BART、T5、Llama3)の結果、EXGECモデルは両方のタスクにおいてシングルタスクベースラインを超えている。
- 参考スコア(独自算出の注目度): 29.583603444317855
- License:
- Abstract: Grammatical Error Correction (GEC) faces a critical challenge concerning explainability, notably when GEC systems are designed for language learners. Existing research predominantly focuses on explaining grammatical errors extracted in advance, thus neglecting the relationship between explanations and corrections. To address this gap, we introduce EXGEC, a unified explainable GEC framework that integrates explanation and correction tasks in a generative manner, advocating that these tasks mutually reinforce each other. Experiments have been conducted on EXPECT, a recent human-labeled dataset for explainable GEC, comprising around 20k samples. Moreover, we detect significant noise within EXPECT, potentially compromising model training and evaluation. Therefore, we introduce an alternative dataset named EXPECT-denoised, ensuring a more objective framework for training and evaluation. Results on various NLP models (BART, T5, and Llama3) show that EXGEC models surpass single-task baselines in both tasks, demonstrating the effectiveness of our approach.
- Abstract(参考訳): 文法的誤り訂正(GEC)は、特に言語学習者向けにGECシステムが設計された場合、説明可能性に関する重要な課題に直面している。
既存の研究は主に事前に抽出した文法的誤りの説明に重点を置いており、説明と修正の関係を無視している。
このギャップに対処するため,これらのタスクが相互に強化されることを主張し,説明・修正タスクを生成的に統合する統一的な説明可能なGECフレームワークであるEXGECを紹介した。
EXPECTは、約20万のサンプルからなる、説明可能なECCのための最近の人間ラベル付きデータセットである。
さらに,EXPECT内の有意なノイズを検知し,モデルトレーニングと評価を行う。
そこで我々は、EXPECT-denoizedと呼ばれる代替データセットを導入し、トレーニングと評価のためのより客観的なフレームワークを確保した。
各種NLPモデル (BART, T5, Llama3) の結果, EXGEC モデルは両タスクの単一タスクベースラインを超え,提案手法の有効性を示した。
関連論文リスト
- Rethinking Misalignment in Vision-Language Model Adaptation from a Causal Perspective [13.56923651751788]
本稿では,タスク非関連知識の干渉を軽減するために,因果性誘導セマンティックデカップリングと分類を提案する。
多様な意味論によって生成される各予測の不確実性を評価するために、Dempster-Shaferエビデンス理論を用いる。
論文 参考訳(メタデータ) (2024-10-01T09:33:45Z) - EXCGEC: A Benchmark for Edit-Wise Explainable Chinese Grammatical Error Correction [32.40235258594858]
本稿では,修正作業と説明作業の統合的な役割に着目したExplainable GEC(EXGEC)の課題を紹介する。
この作業を容易にするために,8,216個の説明付きサンプルからなる中国語EXGECの調整されたベンチマークであるEXCGECを提案する。
次に、マルチタスク学習環境において、後説明や事前説明を含む複数のLLMをベンチマークする。
論文 参考訳(メタデータ) (2024-07-01T03:06:41Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Grammatical Error Correction via Mixed-Grained Weighted Training [68.94921674855621]
文法的誤り訂正(英: Grammatical Error Correction, GEC)は、自然文における文法的誤りを自動的に補正することを目的としている。
MainGECは、データアノテーションの正確性と潜在的な多様性の固有の相違に基づいて、トークンレベルおよび文レベルトレーニングウェイトを設計する。
論文 参考訳(メタデータ) (2023-11-23T08:34:37Z) - BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in
Conversation [19.663265448700002]
会話における感情認識(ERC)に関するこれまでの研究は、2段階のパラダイムを踏襲している。
本研究では,文脈情報と対話構造情報を微調整段階において探索する新しいパラダイムを提案する。
本稿では,提案パラダイムに従って,ERC モデル BERT-ERC を開発し,ERC の性能を3つの面で向上させる。
論文 参考訳(メタデータ) (2023-01-17T08:03:32Z) - CORE: A Retrieve-then-Edit Framework for Counterfactual Data Generation [91.16551253297588]
Counterfactual Generation via Retrieval and Editing (CORE) は、トレーニングのための多様な反事実摂動を生成するための検索強化された生成フレームワークである。
COREはまず、学習されたバイエンコーダを用いて、タスク関連未ラベルテキストコーパス上で密集した検索を行う。
COREはこれらを、反ファクト編集のために、数ショットの学習機能を備えた大規模な言語モデルへのプロンプトに組み込む。
論文 参考訳(メタデータ) (2022-10-10T17:45:38Z) - LM-Critic: Language Models for Unsupervised Grammatical Error Correction [128.9174409251852]
文を文法的に判断する LM-Critic の定義において,事前訓練された言語モデル (LM) の活用法を示す。
このLM-Critic と BIFI と、ラベルなし文の集合を併用して、現実的な非文法的/文法的ペアをブートストラップし、修正子を訓練する。
論文 参考訳(メタデータ) (2021-09-14T17:06:43Z) - Exploration and Exploitation: Two Ways to Improve Chinese Spelling
Correction Models [51.744357472072416]
本稿では,モデルの弱点を継続的に識別し,より価値の高いトレーニングインスタンスを生成する手法を提案する。
実験結果から, 事前学習戦略と組み合わさって, 複数のCSCモデルの一般化とロバスト性を改善することができることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:33Z) - A Self-Refinement Strategy for Noise Reduction in Grammatical Error
Correction [54.569707226277735]
既存の文法的誤り訂正(GEC)のアプローチは、手動で作成したGECデータセットによる教師あり学習に依存している。
誤りが不適切に編集されたり、修正されなかったりする「ノイズ」は無視できないほどある。
本稿では,既存のモデルの予測整合性を利用して,これらのデータセットをデノマイズする自己補充手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T04:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。