論文の概要: Sequence-to-Action: Grammatical Error Correction with Action Guided
Sequence Generation
- arxiv url: http://arxiv.org/abs/2205.10884v1
- Date: Sun, 22 May 2022 17:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 20:21:14.807230
- Title: Sequence-to-Action: Grammatical Error Correction with Action Guided
Sequence Generation
- Title(参考訳): シーケンス・ツー・アクション:アクション誘導シーケンス生成による文法的誤り訂正
- Authors: Jiquan Li, Junliang Guo, Yongxin Zhu, Xin Sheng, Deqiang Jiang, Bo
Ren, Linli Xu
- Abstract要約: 本稿では,文法的誤り訂正のための新しいSequence-to-Action(S2A)モジュールを提案する。
S2Aモジュールは、ソースとターゲット文を共同で入力とし、トークンレベルのアクションシーケンスを自動的に生成することができる。
我々のモデルはセq2seqベースラインを一貫して上回り、過補正問題を著しく軽減することができる。
- 参考スコア(独自算出の注目度): 21.886973310718457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of Grammatical Error Correction (GEC) has received remarkable
attention with wide applications in Natural Language Processing (NLP) in recent
years. While one of the key principles of GEC is to keep the correct parts
unchanged and avoid over-correction, previous sequence-to-sequence (seq2seq)
models generate results from scratch, which are not guaranteed to follow the
original sentence structure and may suffer from the over-correction problem. In
the meantime, the recently proposed sequence tagging models can overcome the
over-correction problem by only generating edit operations, but are conditioned
on human designed language-specific tagging labels. In this paper, we combine
the pros and alleviate the cons of both models by proposing a novel
Sequence-to-Action~(S2A) module. The S2A module jointly takes the source and
target sentences as input, and is able to automatically generate a token-level
action sequence before predicting each token, where each action is generated
from three choices named SKIP, COPY and GENerate. Then the actions are fused
with the basic seq2seq framework to provide final predictions. We conduct
experiments on the benchmark datasets of both English and Chinese GEC tasks.
Our model consistently outperforms the seq2seq baselines, while being able to
significantly alleviate the over-correction problem as well as holding better
generality and diversity in the generation results compared to the sequence
tagging models.
- Abstract(参考訳): 近年,自然言語処理(NLP)において,文法的誤り訂正(GEC)の課題が注目されている。
GECの重要な原則の1つは、正しい部分をそのままにして過補正を避けることであるが、以前のシーケンス・ツー・シーケンス(seq2seq)モデルは、元の文構造に従うことが保証されていないスクラッチから結果を生成する。
一方,最近提案されたシーケンスタグ付けモデルでは,編集操作だけを生成するだけでオーバーコレクション問題を克服することができる。
本稿では,新しいSequence-to-Action~(S2A)モジュールを提案し,両モデルの欠点を緩和する。
S2Aモジュールはソースとターゲット文を共同で入力とし、各トークンを予測する前にトークンレベルのアクションシーケンスを自動的に生成し、各アクションはSKIP、COPY、Geneerateという3つの選択から生成される。
その後、アクションは基本的なseq2seqフレームワークと融合して最終的な予測を提供する。
我々は、英語と中国語のECタスクのベンチマークデータセットで実験を行う。
提案モデルはseq2seqのベースラインを一貫して上回っており、過度な修正問題を大幅に軽減できると同時に、シーケンスタグモデルと比較して、生成結果の汎用性と多様性も向上している。
関連論文リスト
- Multi-head Sequence Tagging Model for Grammatical Error Correction [31.538895931875565]
文法的誤り訂正(英: Grammatical Error Correction, GEC)は、ソースシーケンスとターゲットシーケンスのマッピングである。
現在のシーケンスタギングアプローチでは、あるタスクにレーザーを集中させることで、幅広い文法的誤りを処理できるという問題がある。
本稿では,学習データを効果的に活用し,関連する課題訓練信号からの情報を活用するための,新しいマルチヘッド・マルチタスク学習モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:01:06Z) - Improving Seq2Seq Grammatical Error Correction via Decoding
Interventions [40.52259641181596]
本稿では,外部批判を駆使して生成するトークンの妥当性を段階的に評価する統合デコード介入フレームワークを提案する。
我々は、事前訓練された言語モデル評論家と、段階的なターゲット側の文法的誤り検出批評家の2つのタイプの批判を発見し、調査する。
我々のフレームワークは一貫して強いベースラインを上回り、最先端の手法と競合する結果を得る。
論文 参考訳(メタデータ) (2023-10-23T03:36:37Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Don't Take It Literally: An Edit-Invariant Sequence Loss for Text
Generation [109.46348908829697]
生成したn-gramのすべてのn-gramとの一致損失を計算した新しい編集不変シーケンス損失(EISL)を提案する。
ノイズの多いターゲットシーケンスを持つ機械翻訳,教師なしテキストスタイル転送,非自己回帰型機械翻訳の3つのタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-06-29T03:59:21Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese
Grammatical Error Correction [49.25830718574892]
本稿では,Tail-to-Tail (textbfTtT) という新しいフレームワークを提案する。
ほとんどのトークンが正しいので、ソースからターゲットに直接転送でき、エラー位置を推定して修正することができる。
標準データセット、特に可変長データセットに関する実験結果は、文レベルの精度、精度、リコール、F1-Measureの観点からTtTの有効性を示す。
論文 参考訳(メタデータ) (2021-06-03T05:56:57Z) - Grammatical Error Correction as GAN-like Sequence Labeling [45.19453732703053]
本稿では,Gumbel-Softmaxサンプリングをジェネレータとする文法的誤り検出器と文法的誤り検出器とからなるGANライクなシーケンスラベリングモデルを提案する。
いくつかの評価ベンチマークの結果、提案手法は有効であり、従来の最先端のベースラインを改善することが示されている。
論文 参考訳(メタデータ) (2021-05-29T04:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。