論文の概要: Controlled Generation with Prompt Insertion for Natural Language
Explanations in Grammatical Error Correction
- arxiv url: http://arxiv.org/abs/2309.11439v1
- Date: Wed, 20 Sep 2023 16:14:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 15:42:59.710770
- Title: Controlled Generation with Prompt Insertion for Natural Language
Explanations in Grammatical Error Correction
- Title(参考訳): 文法誤り訂正における自然言語説明のためのプロンプト挿入による制御生成
- Authors: Masahiro Kaneko, Naoaki Okazaki
- Abstract要約: ユーザの修正理由の理解を確保することが不可欠である。
既存の研究では、修正の根拠となるトークン、例、ヒントが提示されているが、修正の理由を直接説明していない。
GEC修正のための説明を生成するには、入力トークンと出力トークンの整列、修正ポイントの識別、およびそれに対応する説明を一貫して提示することが含まれる。
本研究では,LLMが自然言語の修正の理由を説明するために,Prompt Insertion (PI) を用いた制御生成法を提案する。
- 参考スコア(独自算出の注目度): 50.66922361766939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Grammatical Error Correction (GEC), it is crucial to ensure the user's
comprehension of a reason for correction. Existing studies present tokens,
examples, and hints as to the basis for correction but do not directly explain
the reasons for corrections. Although methods that use Large Language Models
(LLMs) to provide direct explanations in natural language have been proposed
for various tasks, no such method exists for GEC. Generating explanations for
GEC corrections involves aligning input and output tokens, identifying
correction points, and presenting corresponding explanations consistently.
However, it is not straightforward to specify a complex format to generate
explanations, because explicit control of generation is difficult with prompts.
This study introduces a method called controlled generation with Prompt
Insertion (PI) so that LLMs can explain the reasons for corrections in natural
language. In PI, LLMs first correct the input text, and then we automatically
extract the correction points based on the rules. The extracted correction
points are sequentially inserted into the LLM's explanation output as prompts,
guiding the LLMs to generate explanations for the correction points. We also
create an Explainable GEC (XGEC) dataset of correction reasons by annotating
NUCLE, CoNLL2013, and CoNLL2014. Although generations from GPT-3 and ChatGPT
using original prompts miss some correction points, the generation control
using PI can explicitly guide to describe explanations for all correction
points, contributing to improved performance in generating correction reasons.
- Abstract(参考訳): 文法的誤り訂正(GEC)では,ユーザの修正理由の理解を確保することが重要である。
既存の研究では、修正の根拠となるトークン、例、ヒントが提示されているが、修正の理由を直接説明していない。
言語モデル(LLM)を用いて自然言語を直接説明する手法は様々なタスクで提案されているが,GECにはそのような手法は存在しない。
GEC修正のための説明を生成するには、入力トークンと出力トークンの整列、修正ポイントの識別、およびそれに対応する説明を一貫して提示することが含まれる。
しかし、プロンプトによって生成の明示的な制御が困難であるため、説明を生成する複雑なフォーマットを指定することは容易ではない。
本研究では,LLMが自然言語の修正の理由を説明するために,Prompt Insertion (PI) を用いた制御生成法を提案する。
PIにおいて、LLMはまず入力テキストを訂正し、その後ルールに基づいて自動的に修正ポイントを抽出する。
抽出された補正点をプロンプトとしてLCMの説明出力に順次挿入し、LSMに補正点の説明を生成する。
また、NUCLE、CoNLL2013、CoNLL2014をアノテートすることで、修正理由の説明可能なECCデータセットを作成する。
GPT-3 や ChatGPT からの世代は、いくつかの修正点を見逃すが、PI を用いた生成制御は、すべての修正点の説明を明示的にガイドし、修正点の生成に寄与する。
関連論文リスト
- EXCGEC: A Benchmark of Edit-wise Explainable Chinese Grammatical Error Correction [21.869368698234247]
本稿では,修正作業と説明作業の一体的な役割に着目したExplainable GEC(EXGEC)の課題を紹介する。
提案するEXCGECは,8,216個の説明増補サンプルからなる中国語EXGECの適合ベンチマークである。
論文 参考訳(メタデータ) (2024-07-01T03:06:41Z) - LM-Combiner: A Contextual Rewriting Model for Chinese Grammatical Error Correction [49.0746090186582]
過剰補正は中国の文法的誤り訂正(CGEC)タスクにおいて重要な問題である。
モデルアンサンブル法による最近の研究は、過剰補正を効果的に軽減し、ECCシステムの精度を向上させることができる。
本稿では,GECシステム出力の過度補正をモデルアンサンブルなしで直接修正できる書き換えモデルLM-Combinerを提案する。
論文 参考訳(メタデータ) (2024-03-26T06:12:21Z) - Alirector: Alignment-Enhanced Chinese Grammatical Error Corrector [25.450566841158864]
中国の文法的誤り訂正(CGEC)は、自己回帰生成モデルを採用する際に深刻な過度な過度な問題に直面している。
過補正問題に対するアライメント強化補正器を提案する。
3つのCGECデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-02-07T05:56:54Z) - Enhancing Grammatical Error Correction Systems with Explanations [45.69642286275681]
文法的誤り訂正システムは、言語誤りを検出し、修正することで、文字によるコミュニケーションを改善する。
本稿では,エビデンスワードと文法的誤り型を付加したデータセットEXPECTを紹介する。
人間の評価により,GECシステムの説明は,訂正提案を受理するか否かを判断する第2言語学習者を支援することができる。
論文 参考訳(メタデータ) (2023-05-25T03:00:49Z) - GRACE: Discriminator-Guided Chain-of-Thought Reasoning [75.35436025709049]
本稿では, 正しい推論手順を導出するために, GRACE (CorrectnEss Discriminator) を用いたチェーン・オブ・シークレット・リAsoningを提案する。
GRACEは、正しいステップと間違ったステップに対して対照的な損失で訓練された判別器を採用しており、復号時に次のステップ候補を採点するために使用される。
論文 参考訳(メタデータ) (2023-05-24T09:16:51Z) - Reducing Sequence Length by Predicting Edit Operations with Large
Language Models [50.66922361766939]
本稿では,ローカルなシーケンス変換タスクに対して,ソーステキストの編集スパンを予測することを提案する。
編集スパンの監督データに大規模言語モデルに対する命令チューニングを適用する。
実験の結果,提案手法は4つのタスクにおいて,ベースラインに匹敵する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-19T17:51:05Z) - Interpretability for Language Learners Using Example-Based Grammatical
Error Correction [27.850970793739933]
本稿では,言語学習者に対して,修正結果のベースとしてサンプルを提示する例ベースGEC(EB-GEC)を提案する。
実験により、EB-GECが提示した例は、言語学習者がGEC出力からの提案を受け入れたり拒否したりするのに役立つことが示された。
論文 参考訳(メタデータ) (2022-03-14T13:15:00Z) - Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese
Grammatical Error Correction [49.25830718574892]
本稿では,Tail-to-Tail (textbfTtT) という新しいフレームワークを提案する。
ほとんどのトークンが正しいので、ソースからターゲットに直接転送でき、エラー位置を推定して修正することができる。
標準データセット、特に可変長データセットに関する実験結果は、文レベルの精度、精度、リコール、F1-Measureの観点からTtTの有効性を示す。
論文 参考訳(メタデータ) (2021-06-03T05:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。