論文の概要: Building a Non-native Speech Corpus Featuring Chinese-English Bilingual
Children: Compilation and Rationale
- arxiv url: http://arxiv.org/abs/2305.00446v2
- Date: Sun, 7 Jan 2024 17:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 23:59:29.574472
- Title: Building a Non-native Speech Corpus Featuring Chinese-English Bilingual
Children: Compilation and Rationale
- Title(参考訳): 中国語と英語の両言語を持つ非ネイティブ音声コーパスの構築
- Authors: Hiuchung Hung, Andreas Maier, Thorsten Piske
- Abstract要約: 本稿では,5歳から6歳までの中英語児童の物語から成る非母語音声コーパスについて紹介する。
英語(L2)で物語理解テストを受ける子どもの合計6.5時間について,人格スコアや文法的・発音的誤りの注釈とともに紹介する。
子どもたちは中国語(L1)での並行MAIN試験も参照目的に完了した。
- 参考スコア(独自算出の注目度): 3.924235219960689
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a non-native speech corpus consisting of narratives
from fifty 5- to 6-year-old Chinese-English children. Transcripts totaling 6.5
hours of children taking a narrative comprehension test in English (L2) are
presented, along with human-rated scores and annotations of grammatical and
pronunciation errors. The children also completed the parallel MAIN tests in
Chinese (L1) for reference purposes. For all tests we recorded audio and video
with our innovative self-developed remote collection methods. The video
recordings serve to mitigate the challenge of low intelligibility in L2
narratives produced by young children during the transcription process. This
corpus offers valuable resources for second language teaching and has the
potential to enhance the overall performance of automatic speech recognition
(ASR).
- Abstract(参考訳): 本稿では,5歳から6歳までの中英語児童の物語からなる非母語音声コーパスを紹介する。
英語のナラティブ理解テスト(l2)を受ける子どもの6.5時間分の書き起こしと、人間の評価スコアと文法的・発音的誤りの注釈を提示する。
子どもたちは中国語(L1)での並行MAIN試験を参考に完了した。
すべてのテストで、革新的な遠隔収集手法でオーディオとビデオを録音しました。
ビデオ録画は、幼児の転写過程におけるL2物語の低知能化の課題を軽減するのに役立つ。
このコーパスは、第二言語教育に貴重なリソースを提供し、自動音声認識(ASR)の全体的な性能を高める可能性がある。
関連論文リスト
- Who Said What? An Automated Approach to Analyzing Speech in Preschool Classrooms [0.4207829324073153]
本稿では,ソフトウェアを用いて話者を分類し,発話の書き起こしを行う自動フレームワークを提案する。
筆者らは,110分間の授業記録において,本フレームワークと人間専門家の結果を比較した。
その結果, 子どもの言語発達を支援する授業音声の分析において, かなり進歩したことが示唆された。
論文 参考訳(メタデータ) (2024-01-14T18:27:37Z) - Teacher Perception of Automatically Extracted Grammar Concepts for L2
Language Learning [66.79173000135717]
本研究は、カンナダ語とマラティ語という2つのインドの言語教育に適用する。
我々は、形態素構文(単語順、一致、ケースマーキング、または単語形成の学習)と意味論(語彙の学習)に関する疑問に答える自然なテキストコーパスから記述を抽出する。
我々は,北米の学校から言語教育者の助けを借りて手作業による評価を行い,教材が授業の準備や学習者評価に利用できる可能性を見出した。
論文 参考訳(メタデータ) (2023-10-27T18:17:29Z) - Voxtlm: unified decoder-only models for consolidating speech
recognition/synthesis and speech/text continuation tasks [61.3055230762097]
音声認識,音声合成,テキスト生成,音声継続の4つのタスクを実行できるデコーダのみの言語モデルであるVoxtLMを提案する。
VoxtLMは、テキスト語彙を自己教師付き音声特徴から独立した音声トークンと統合し、マルチタスク学習を可能にするために特別なトークンを使用する。
論文 参考訳(メタデータ) (2023-09-14T03:13:18Z) - Automatic Speech Recognition of Non-Native Child Speech for Language
Learning Applications [18.849741353784328]
我々は、最先端のASRシステムであるWav2Vec2.0とWhisper AIの性能を評価する。
オランダ語母語,非母語母語母語,非母語母語母語,母語母語母語母語母語,母語母語母語母語母語,母語母語母語母語母語母語母語母語,母語母語母語母語母語母語母語母語,母語母語母語母語母語母語
論文 参考訳(メタデータ) (2023-06-29T06:14:26Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Hindi as a Second Language: Improving Visually Grounded Speech with
Semantically Similar Samples [89.16814518860357]
本研究の目的は,多言語の観点からの視覚的基盤音声モデル(VGS)の学習を検討することである。
この研究における重要な貢献は、低リソース言語の性能を向上させるために、バイリンガルな視覚的基盤を持つ音声モデルにおける高リソース言語のパワーを活用することである。
論文 参考訳(メタデータ) (2023-03-30T16:34:10Z) - Technology Pipeline for Large Scale Cross-Lingual Dubbing of Lecture
Videos into Multiple Indian Languages [5.17905382659474]
講義ビデオの言語間ダビングには、オリジナルの音声の書き起こし、修正と不一致の除去が必要である。
本稿では,インド語の講義映像を半自動で再生する際の課題について述べる。
論文 参考訳(メタデータ) (2022-11-01T07:06:29Z) - Video-Guided Curriculum Learning for Spoken Video Grounding [65.49979202728167]
音声言語記述から所望のビデオ断片をローカライズすることを目的とした,新たなタスクである音声ビデオグラウンドティング(SVG)を導入する。
識別音素の修正と雑音の多い音声から映像関連情報を抽出するために,新しいビデオ指導カリキュラム学習(VGCL)を開発した。
さらに,ActivityNetをベースとした,最初の大規模音声グラウンドデータセットを収集する。
論文 参考訳(メタデータ) (2022-09-01T07:47:01Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - Analysis of Disfluency in Children's Speech [25.68434431663045]
対象児26名(年齢5~8歳)の自覚的説明の非効率性を示す新しいデータセットを提案する。
子どもたちは、拡散率とフィラー率が高く、鼻腔充填の停止を頻繁に使う傾向があり、平均すると修復よりも長い逆行性を示す。
違いはあるものの、大人(スイッチボード)の音声書き起こしで訓練された自動不規則検出システムは、子どもの音声に対して合理的に良好に機能する。
論文 参考訳(メタデータ) (2020-10-08T22:51:25Z) - TLT-school: a Corpus of Non Native Children Speech [7.417312533172291]
本稿では,イタリア北部の学校において,英語とドイツ語の両方を学ぶ学生のパフォーマンスを評価するために収集された発話コーパス「TLTスクール」について述べる。
コーパスは、2017年から2018年にかけて、小学校、中学校、高校に通いながら、9歳から16歳の学生から記録された。
すべての発話は、事前に定義された熟練度指標の観点から、人間の専門家によって評価されている。
論文 参考訳(メタデータ) (2020-01-22T15:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。