論文の概要: LXPER Index 2.0: Improving Text Readability Assessment Model for L2
English Students in Korea
- arxiv url: http://arxiv.org/abs/2010.13374v4
- Date: Fri, 11 Dec 2020 11:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 17:54:36.496006
- Title: LXPER Index 2.0: Improving Text Readability Assessment Model for L2
English Students in Korea
- Title(参考訳): LXPER Index 2.0:韓国におけるL2英語学生のテキスト可読性評価モデルの改善
- Authors: Bruce W. Lee and Jason Lee
- Abstract要約: 本稿では韓国におけるL2英語学習者のテキスト可読性評価モデルについて検討する。
我々は,韓国のELTカリキュラムにおけるテキストの読みやすさ評価を,CoKEC-textでトレーニングし,精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 1.7006003864727408
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developing a text readability assessment model specifically for texts in a
foreign English Language Training (ELT) curriculum has never had much attention
in the field of Natural Language Processing. Hence, most developed models show
extremely low accuracy for L2 English texts, up to the point where not many
even serve as a fair comparison. In this paper, we investigate a text
readability assessment model for L2 English learners in Korea. In accordance,
we improve and expand the Text Corpus of the Korean ELT curriculum
(CoKEC-text). Each text is labeled with its target grade level. We train our
model with CoKEC-text and significantly improve the accuracy of readability
assessment for texts in the Korean ELT curriculum.
- Abstract(参考訳): 外国語教育(ELT)カリキュラムにおけるテキストの可読性評価モデルの開発は,自然言語処理の分野ではあまり注目されていない。
したがって、ほとんどの発達したモデルは、l2英語のテキストに対して非常に低い精度を示しており、公平な比較を行うものさえ多くない。
本稿では韓国におけるL2英語学習者のテキスト可読性評価モデルについて検討する。
韓国のELTカリキュラム(CoKEC-text)のテキストコーパスの改善と拡張を行う。
各テキストは、ターゲットグレードレベルでラベル付けされる。
我々は,韓国のELTカリキュラムにおけるテキストの読みやすさ評価を,CoKEC-textでトレーニングし,精度を大幅に向上させる。
関連論文リスト
- HyperCLOVA X Technical Report [119.94633129762133]
韓国語と文化に合わせた大型言語モデル(LLM)のファミリーであるHyperCLOVA Xを紹介する。
HyperCLOVA Xは韓国語、英語、コードデータのバランスの取れた混合でトレーニングされ、その後、高品質な人間アノテーション付きデータセットによる命令チューニングが行われた。
このモデルは、韓国語と英語の両方で、包括的な推論、知識、常識、事実性、コーディング、数学、チャット、指示追従、無害など、様々なベンチマークで評価されている。
論文 参考訳(メタデータ) (2024-04-02T13:48:49Z) - KIT-19: A Comprehensive Korean Instruction Toolkit on 19 Tasks for Fine-Tuning Korean Large Language Models [0.0]
textitKIT-19は、韓国のNLPタスクのための19の既存のオープンソースデータセットからなる、命令フォーマットで作成されたデータセットである。
実験の結果,textitKIT-19で訓練したモデルは,既存の韓国のLLMよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-03-25T06:15:21Z) - CLIcK: A Benchmark Dataset of Cultural and Linguistic Intelligence in Korean [18.526285276022907]
韓国における1,995対のQAペアからなる文化・言語知能のベンチマークについて紹介する。
CLIcKは、公式の韓国の試験と教科書からデータを入手し、質問を言語と文化の2つの主要なカテゴリで11のカテゴリに分けている。
CLIcKを用いて、13の言語モデルを用いて、パフォーマンスを評価する。評価では、カテゴリ間でのパフォーマンスに関する洞察と、その理解に影響を与えるさまざまな要因を明らかにする。
論文 参考訳(メタデータ) (2024-03-11T03:54:33Z) - Efficient and Effective Vocabulary Expansion Towards Multilingual Large
Language Models [9.359647125218359]
本報告では,韓国語による大規模言語モデルの適応である texttEEVE-Korean-v1.0 を紹介する。
我々の手法は、わずか20億のトークンで非英語の習熟度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-02-22T17:12:39Z) - Teacher Perception of Automatically Extracted Grammar Concepts for L2
Language Learning [66.79173000135717]
本研究は、カンナダ語とマラティ語という2つのインドの言語教育に適用する。
我々は、形態素構文(単語順、一致、ケースマーキング、または単語形成の学習)と意味論(語彙の学習)に関する疑問に答える自然なテキストコーパスから記述を抽出する。
我々は,北米の学校から言語教育者の助けを借りて手作業による評価を行い,教材が授業の準備や学習者評価に利用できる可能性を見出した。
論文 参考訳(メタデータ) (2023-10-27T18:17:29Z) - Cross-modality Data Augmentation for End-to-End Sign Language Translation [66.46877279084083]
エンドツーエンド手話翻訳(SLT)は、手話動画を中間表現なしで直接音声言語テキストに変換することを目的としている。
署名ビデオとテキスト間のモダリティのギャップとラベル付きデータの不足のため、これは難しい課題だった。
本稿では,強力な光沢からテキストへの翻訳機能をエンドツーエンドの手話翻訳に変換するための,新しいクロスモダリティデータ拡張(XmDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:34:18Z) - Dual-Alignment Pre-training for Cross-lingual Sentence Embedding [79.98111074307657]
本稿では,言語間文埋め込みのためのDAP(Dual-alignment pre-training)フレームワークを提案する。
そこで本研究では,一方の文脈化トークン表現を用いて翻訳相手を再構成する,新しい表現翻訳学習(RTL)タスクを提案する。
我々の手法は文の埋め込みを大幅に改善できる。
論文 参考訳(メタデータ) (2023-05-16T03:53:30Z) - SESCORE2: Learning Text Generation Evaluation via Synthesizing Realistic
Mistakes [93.19166902594168]
テキスト生成評価のためのモデルベースメトリックを学習するための自己教師型アプローチSESCORE2を提案する。
鍵となる概念は、コーパスから取得した文を摂動することで、現実的なモデルミスを合成することである。
3言語にわたる4つのテキスト生成タスクにおいて,SESCORE2とそれ以前の手法を評価する。
論文 参考訳(メタデータ) (2022-12-19T09:02:16Z) - A Transfer Learning Based Model for Text Readability Assessment in
German [4.550811027560416]
移動学習に基づくドイツ語テキストのテキスト複雑性評価のための新しいモデルを提案する。
最高のモデルはBERTの事前訓練言語モデルに基づいており、Root Mean Square Error (RMSE) は 0.483 である。
論文 参考訳(メタデータ) (2022-07-13T15:15:44Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - LXPER Index: a curriculum-specific text readability assessment model for
EFL students in Korea [0.5076419064097734]
LXPER Index(LXPER Index)は、韓国のELTカリキュラムにおける非ネイティブ英語読者の可読性評価モデルである。
韓国のELTカリキュラムにおけるテキストの自動可読性評価の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-08-01T11:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。