論文の概要: Speak & Improve Corpus 2025: an L2 English Speech Corpus for Language Assessment and Feedback
- arxiv url: http://arxiv.org/abs/2412.11986v1
- Date: Mon, 16 Dec 2024 17:07:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:58:20.624994
- Title: Speak & Improve Corpus 2025: an L2 English Speech Corpus for Language Assessment and Feedback
- Title(参考訳): Speak & Improve Corpus 2025:L2 English Speech Corpus for Language Assessment and Feedback (英語)
- Authors: Kate Knill, Diane Nicholls, Mark J. F. Gales, Mengjie Qian, Pawel Stroinski,
- Abstract要約: Speak & Improve 2025は、L2学習者の英語データのデータセットである。
コーパスリリースの目的は、L2音声言語処理システムの開発において大きな課題に取り組むことである。
ELiTのウェブサイトで非商用利用が可能である。
- 参考スコア(独自算出の注目度): 28.53752312060031
- License:
- Abstract: We introduce the Speak \& Improve Corpus 2025, a dataset of L2 learner English data with holistic scores and language error annotation, collected from open (spontaneous) speaking tests on the Speak \& Improve learning platform https://speakandimprove.com . The aim of the corpus release is to address a major challenge to developing L2 spoken language processing systems, the lack of publicly available data with high-quality annotations. It is being made available for non-commercial use on the ELiT website. In designing this corpus we have sought to make it cover a wide-range of speaker attributes, from their L1 to their speaking ability, as well as providing manual annotations. This enables a range of language-learning tasks to be examined, such as assessing speaking proficiency or providing feedback on grammatical errors in a learner's speech. Additionally, the data supports research into the underlying technology required for these tasks including automatic speech recognition (ASR) of low resource L2 learner English, disfluency detection or spoken grammatical error correction (GEC). The corpus consists of around 340 hours of L2 English learners audio with holistic scores, and a subset of audio annotated with transcriptions and error labels.
- Abstract(参考訳): Speak \& Improve 学習プラットフォーム https://speakandimprove.com.com 上のオープン(自発)音声テストから収集した L2 学習者の英語データに全体的スコアと言語エラーアノテーションを付加したデータセットである Speak \& Improve Corpus 2025 を紹介する。
コーパスリリースの目的は、L2言語処理システムを開発する上での大きな課題に対処することであり、高品質なアノテーションを備えた公開データの欠如である。
ELiTのウェブサイトで非商用利用が可能である。
このコーパスを設計する際には、L1から話し方まで幅広い話者属性をカバーし、手動のアノテーションを提供するようにしました。
これにより、話しの習熟度を評価したり、学習者の発話における文法的誤りに対するフィードバックを提供するなど、さまざまな言語学習タスクが検討できる。
さらに、低リソースL2学習者英語の自動音声認識(ASR)、拡散検出、音声文法誤り訂正(GEC)など、これらのタスクに必要な基礎技術の研究を支援する。
コーパスは約340時間に及ぶL2英語学習者の音声と、書き起こしとエラーラベルを付加したオーディオのサブセットで構成されている。
関連論文リスト
- Speak & Improve Challenge 2025: Tasks and Baseline Systems [28.877872578497854]
Speak & Improve Challenge 2025: Spoken Language Assessment and Feedback"は、ISCA SLaTE 2025ワークショップに関連する課題である。
この課題の目標は、基礎技術と言語学習の両方のフィードバックに関連するタスクを用いて、音声言語アセスメントとフィードバックの研究を進めることである。
この課題には、自動音声認識(ASR)、音声言語アセスメント(SLA)、音声文法誤り訂正(SGEC)、音声文法誤り訂正フィードバック(SGECF)の4つの共通タスクがある。
論文 参考訳(メタデータ) (2024-12-16T17:05:18Z) - Teacher Perception of Automatically Extracted Grammar Concepts for L2
Language Learning [66.79173000135717]
本研究は、カンナダ語とマラティ語という2つのインドの言語教育に適用する。
我々は、形態素構文(単語順、一致、ケースマーキング、または単語形成の学習)と意味論(語彙の学習)に関する疑問に答える自然なテキストコーパスから記述を抽出する。
我々は,北米の学校から言語教育者の助けを借りて手作業による評価を行い,教材が授業の準備や学習者評価に利用できる可能性を見出した。
論文 参考訳(メタデータ) (2023-10-27T18:17:29Z) - Lip Reading for Low-resource Languages by Learning and Combining General
Speech Knowledge and Language-specific Knowledge [57.38948190611797]
本稿では,特に低リソース言語を対象とした新しい唇読解フレームワークを提案する。
低リソース言語は、そのモデルを訓練するのに十分なビデオテキストペアデータを持っていないため、低リソース言語のための唇読解モデルを開発するのは難しいと考えられている。
論文 参考訳(メタデータ) (2023-08-18T05:19:03Z) - Textless Unit-to-Unit training for Many-to-Many Multilingual Speech-to-Speech Translation [65.13824257448564]
本稿では,多言語多言語音声音声合成のためのテキストレス学習手法を提案する。
音声単位を擬似テキストとして扱うことにより、音声の言語内容に焦点を合わせることができる。
提案するUTUTモデルは,音声音声合成(S2ST)だけでなく,多言語音声合成(T2S)やテキスト音声合成(T2ST)にも有効であることを示す。
論文 参考訳(メタデータ) (2023-08-03T15:47:04Z) - Incorporating L2 Phonemes Using Articulatory Features for Robust Speech
Recognition [2.8360662552057323]
本研究は,韓国語音素を指すL2音素の効率的な組み込みについて,音声特徴分析を用いて検討した。
格子のない最大相互情報(LF-MMI)の目的をエンドツーエンドに使い、音響モデルを訓練し、複数の発音候補のうちの1つを調整・予測する。
実験結果から,提案手法は韓国語L2音声のASR精度をL1音声データのみに基づく訓練により向上させることが示された。
論文 参考訳(メタデータ) (2023-06-05T01:55:33Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - Speak Foreign Languages with Your Own Voice: Cross-Lingual Neural Codec
Language Modeling [92.55131711064935]
本稿では,言語間音声合成のための言語間ニューラルネットワークモデル VALL-E X を提案する。
VALL-E Xは、強い文脈内学習能力を継承し、ゼロショット言語間テキスト音声合成やゼロショット音声音声音声翻訳タスクに応用できる。
未知の話者の声、感情、音響環境を保ちながら、ソース言語の1つの発話をプロンプトとして、ターゲット言語で高品質な音声を生成することができる。
論文 参考訳(メタデータ) (2023-03-07T14:31:55Z) - YACLC: A Chinese Learner Corpus with Multidimensional Annotation [45.304130762057945]
大規模多次元アノテート中国語学習コーパスを構築した。
コーパスの原文やアノテーションを解析した結果,YACLCは相当の大きさで,アノテーションの品質が高いことがわかった。
論文 参考訳(メタデータ) (2021-12-30T13:07:08Z) - Semi-supervised transfer learning for language expansion of end-to-end
speech recognition models to low-resource languages [19.44975351652865]
低音源言語における音声認識精度向上のための3段階学習手法を提案する。
我々は、翻訳学習、TS拡張、SSLを用いて、よく訓練された英語モデル、ラベルなしテキストコーパス、ラベルなしオーディオコーパスを利用する。
第1パスにおけるモノトニック・チャンクワイド・アテンション(MoA)を用いた2パス音声認識システムでは,ベースラインに対するWERの42%削減を実現している。
論文 参考訳(メタデータ) (2021-11-19T05:09:16Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Kosp2e: Korean Speech to English Translation Corpus [11.44330742875498]
韓国語音声をエンドツーエンドで英文に翻訳するコーパスであるkosp2eを紹介する。
我々は,オープンライセンス音声認識コーパス,翻訳コーパス,音声言語コーパスを採用して,データセットを一般公開する。
論文 参考訳(メタデータ) (2021-07-06T20:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。