論文の概要: Leveraging What's Overfixed: Post-Correction via LLM Grammatical Error Overcorrection
- arxiv url: http://arxiv.org/abs/2509.20811v1
- Date: Thu, 25 Sep 2025 06:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.737633
- Title: Leveraging What's Overfixed: Post-Correction via LLM Grammatical Error Overcorrection
- Title(参考訳): オーバーフィックスの活用: LLM文法的エラーオーバーコレクトによるポストコレクト
- Authors: Taehee Park, Heejin Do, Gary Geunbae Lee,
- Abstract要約: 大きな言語モデル(LLM)は、しばしば反対の傾向を示し、過度な過度なオーバーコレクションを引き起こし、精度が低い。
本稿では, 戦略的リコールと精度のバランスをとる新しいアプローチとして, オーバーコレクションによるポストコレクション(PoCO)を提案する。
- 参考スコア(独自算出の注目度): 25.27694122589531
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust supervised fine-tuned small Language Models (sLMs) often show high reliability but tend to undercorrect. They achieve high precision at the cost of low recall. Conversely, Large Language Models (LLMs) often show the opposite tendency, making excessive overcorrection, leading to low precision. To effectively harness the strengths of LLMs to address the recall challenges in sLMs, we propose Post-Correction via Overcorrection (PoCO), a novel approach that strategically balances recall and precision. PoCO first intentionally triggers overcorrection via LLM to maximize recall by allowing comprehensive revisions, then applies a targeted post-correction step via fine-tuning smaller models to identify and refine erroneous outputs. We aim to harmonize both aspects by leveraging the generative power of LLMs while preserving the reliability of smaller supervised models. Our extensive experiments demonstrate that PoCO effectively balances GEC performance by increasing recall with competitive precision, ultimately improving the overall quality of grammatical error correction.
- Abstract(参考訳): ロバスト監督による微調整された小言語モデル(sLM)は、しばしば高い信頼性を示すが、誤った傾向にある。
低いリコールを犠牲にして高い精度を達成する。
逆に、Large Language Models (LLMs) はしばしば逆の傾向を示し、過度な過度な過度な訂正をし、精度を低くする。
sLMにおけるリコール課題に対処するために,LLMの強みを効果的に活用するために,リコールと精度を戦略的にバランスさせる新しいアプローチであるOvercorrection via Overcorrection (PoCO)を提案する。
PoCOはまず、総合的なリビジョンを可能にすることでリコールを最大化するためにLLMを介して意図的にオーバーコレクションをトリガーし、その後、小さなモデルを微調整して不正なアウトプットを特定し、精査するターゲットのポストコレクションステップを適用した。
我々は,より小型の教師付きモデルの信頼性を維持しつつ,LLMの生成能力を活用して両面の調和を図ることを目的とする。
我々の広範な実験は、PoCOが競合精度でリコールを増やし、最終的に文法的誤り訂正の全体的な品質を向上させることにより、GCC性能を効果的にバランスさせることを示した。
関連論文リスト
- Mixture of Small and Large Models for Chinese Spelling Check [10.634101727583127]
大規模言語モデル (LLM) の時代、中国語のスペルチェック (CSC) タスクは様々な LLM 手法が開発されてきた。
高品質なドメインデータに依存した細調整のBERTベースのモデルは優れた性能を示すが、編集パターンの過度な適合に悩まされている。
本稿では,ビーム探索復号フェーズにおける小型モデルとLCMの確率分布を効果的に組み合わせた動的混合手法を提案する。
論文 参考訳(メタデータ) (2025-06-07T18:29:10Z) - Mind the Confidence Gap: Overconfidence, Calibration, and Distractor Effects in Large Language Models [0.6091702876917281]
大規模言語モデル(LLM)は、自然言語処理において顕著な熟練度を示す。
予測された信頼と真の正しさの過度なミスサライメントは、重要な意思決定アプリケーションに重大なリスクをもたらす。
9つのLCMと3つの質問応答データセットにわたるLCMの校正に関する包括的分析を行った。
論文 参考訳(メタデータ) (2025-02-16T07:46:09Z) - MQM-APE: Toward High-Quality Error Annotation Predictors with Automatic Post-Editing in LLM Translation Evaluators [53.91199933655421]
大規模言語モデル(LLM)は、機械翻訳(MT)の品質評価の裁判官として大きな可能性を秘めている。
非インパクト的なエラーをフィルタリングするアイデアに基づいて、ユニバーサルでトレーニング不要なフレームワークである$textbfMQM-APEを紹介します。
実験の結果,GEMBA-MQMに対する誤差の信頼性と品質の両方が一貫して改善されていることがわかった。
論文 参考訳(メタデータ) (2024-09-22T06:43:40Z) - From Yes-Men to Truth-Tellers: Addressing Sycophancy in Large Language Models with Pinpoint Tuning [91.79567270986901]
大規模言語モデル(LLM)は、ユーザプロンプトへの順守を、妥当な応答よりも優先する傾向がある。
近年の研究では、教師付き微調整(SFT)を用いて、梅毒問題を軽減することが提案されている。
そこで本研究では,特定の目的のために関心のあるモジュールを調整した新しいピンポイントチューニング(SPT)を提案する。
論文 参考訳(メタデータ) (2024-09-03T07:01:37Z) - Mitigating Biases of Large Language Models in Stance Detection with Counterfactual Augmented Calibration [43.02857908228108]
大規模言語モデル (LLM) は、スタンス検出を含む様々な自然言語処理タスクにおいて顕著な進歩を示している。
姿勢検出におけるそれらの性能は、データ駆動性に起因するバイアスと刺激的な相関によって制限される。
本稿では,LCMの姿勢予測における潜在的なバイアスをキャリブレーションする新たなキャリブレーションネットワークであるFACTUALを提案する。
論文 参考訳(メタデータ) (2024-02-22T05:17:49Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - Pareto Optimal Learning for Estimating Large Language Model Errors [12.21899680905672]
大規模言語モデル(LLM)は多くのアプリケーションで印象的な能力を示している。
複数の情報ソースを統合することで,LSM応答における誤り確率を推定するリスクスコアを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-06-28T21:11:15Z) - Compress, Then Prompt: Improving Accuracy-Efficiency Trade-off of LLM
Inference with Transferable Prompt [96.24800696597707]
圧縮モデルにより,このトレードオフを最適化する新たな視点を導入する。
本稿では,圧縮されたモデルを学習プロセスに公開するソフトプロンプト学習法を提案する。
我々のソフトプロンプト戦略は8x圧縮LLaMA-7Bモデルの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-17T20:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。