論文の概要: Personalizing Grammatical Error Correction: Adaptation to Proficiency
Level and L1
- arxiv url: http://arxiv.org/abs/2006.02964v1
- Date: Thu, 4 Jun 2020 15:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 10:01:38.802104
- Title: Personalizing Grammatical Error Correction: Adaptation to Proficiency
Level and L1
- Title(参考訳): 文法的誤り訂正のパーソナライズ:習熟度とL1への適応
- Authors: Maria Nadejde and Joel Tetreault
- Abstract要約: 文法誤り訂正(GEC)システムは、様々なソフトウェアアプリケーションで広く使われている。
本稿では,汎用型ニューラルGECシステムに習熟度と書き手の第一言語の両方を適応させるための最初の結果を示す。
- 参考スコア(独自算出の注目度): 0.01269104766024433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grammar error correction (GEC) systems have become ubiquitous in a variety of
software applications, and have started to approach human-level performance for
some datasets. However, very little is known about how to efficiently
personalize these systems to the user's characteristics, such as their
proficiency level and first language, or to emerging domains of text. We
present the first results on adapting a general-purpose neural GEC system to
both the proficiency level and the first language of a writer, using only a few
thousand annotated sentences. Our study is the broadest of its kind, covering
five proficiency levels and twelve different languages, and comparing three
different adaptation scenarios: adapting to the proficiency level only, to the
first language only, or to both aspects simultaneously. We show that tailoring
to both scenarios achieves the largest performance improvement (3.6 F0.5)
relative to a strong baseline.
- Abstract(参考訳): 文法エラー訂正(GEC)システムは、様々なソフトウェアアプリケーションで広く普及し、いくつかのデータセットに対して人間レベルのパフォーマンスにアプローチし始めた。
しかし、これらのシステムを、習熟度や第一言語、新しいテキスト領域など、ユーザの特性に効率よくパーソナライズする方法については、ほとんど分かっていない。
本稿では,数千文の注釈文を用いて,汎用神経gecシステムを文の習熟度レベルと第1言語の両方に適応させる最初の結果を示す。
本研究は,5つの習熟レベルと12の異なる言語を網羅し,習熟レベルのみへの適応,第一言語のみへの適応,両言語同時適応という3つの異なる適応シナリオを比較した。
両シナリオの調整により,強いベースラインに対して最大の性能向上(3.6F0.5)が得られることを示す。
関連論文リスト
- Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - Self-supervised Adaptive Pre-training of Multilingual Speech Models for
Language and Dialect Identification [19.893213508284813]
目標領域や下流タスクの言語に事前学習モデルを適用するために,自己教師付き適応型事前学習を提案する。
SPTはFLEURSベンチマークのXLSR性能を向上し、表現不足言語では40.1%まで向上することを示した。
論文 参考訳(メタデータ) (2023-12-12T14:58:08Z) - APoLLo: Unified Adapter and Prompt Learning for Vision Language Models [58.9772868980283]
本稿では,視覚言語モデルに対する適応学習とプロンプト学習を組み合わせた統合マルチモーダルアプローチであるAPoLLoを提案する。
APoLLoは10種類の画像認識データセットに対して、MaPLe(SOTA)よりも6.03%向上している。
論文 参考訳(メタデータ) (2023-12-04T01:42:09Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - A simple language-agnostic yet very strong baseline system for hate
speech and offensive content identification [0.0]
古典的な教師付きアルゴリズムに基づくシステムは、文字n-gramのみを供給し、したがって完全に言語に依存しないシステムを提案する。
英語では中程度のパフォーマンスに達しており、ディープラーニングアプローチの開発が容易な言語である。
これらの言語の3つのタスクでパフォーマンスが平均化され、多くのディープラーニングアプローチを上回ります。
論文 参考訳(メタデータ) (2022-02-05T08:09:09Z) - Adapt-and-Adjust: Overcoming the Long-Tail Problem of Multilingual
Speech Recognition [58.849768879796905]
エンドツーエンドの多言語音声認識のためのトランスフォーマーベースマルチタスク学習フレームワークであるAdapt-and-Adjust (A2)を提案する。
A2フレームワークは,(1) 訓練済み多言語言語モデル (mBERT) を利用して低リソース言語の性能を向上させる,(2) 言語固有の適応と言語に依存しない2つのアダプタを最小限の追加パラメータで提案する,(3) クラス不均衡を克服する,という3つの手法で解決する。
論文 参考訳(メタデータ) (2020-12-03T03:46:16Z) - Language Models are Few-Shot Learners [61.36677350504291]
言語モデルのスケールアップにより、タスクに依存しない、少数ショットのパフォーマンスが大幅に向上することを示す。
我々は、1750億のパラメータを持つ自動回帰言語モデルであるGPT-3を訓練し、その性能を数ショットでテストする。
GPT-3は、翻訳、質問応答、クローズタスクを含む多くのNLPデータセットで高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-05-28T17:29:03Z) - A Comprehensive Survey of Grammar Error Correction [10.251356177014756]
文法誤り訂正(GEC)は自然言語処理技術の重要な応用分野である。
過去10年間、機械学習とディープラーニングの普及のために、ECCで大きな進歩を遂げてきた。
本研究は,本分野の文献を総合的に考察するための第1回調査である。
論文 参考訳(メタデータ) (2020-05-02T04:46:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。