論文の概要: Enhancing nonnative speech perception and production through an AI-powered application
- arxiv url: http://arxiv.org/abs/2503.22705v1
- Date: Tue, 18 Mar 2025 10:05:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-06 08:38:00.111171
- Title: Enhancing nonnative speech perception and production through an AI-powered application
- Title(参考訳): AIを活用したアプリケーションによる非ネイティブ音声認識と生産の促進
- Authors: Georgios P. Georgiou,
- Abstract要約: 本研究の目的は、AIを利用したモバイルアプリケーションによるトレーニングが、非ネイティブな音の知覚と生産に与える影響を検討することである。
この介入には、英語の母音を特徴とする録音タスクと発音フィードバックと練習を取り入れたSpeakometer Mobileアプリケーションによるトレーニングが含まれていた。
その結果,介入後の判別精度と目標コントラストの生成に有意な改善が認められた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While research on using Artificial Intelligence (AI) through various applications to enhance foreign language pronunciation is expanding, it has primarily focused on aspects such as comprehensibility and intelligibility, largely neglecting the improvement of individual speech sounds in both perception and production. This study seeks to address this gap by examining the impact of training with an AI-powered mobile application on nonnative sound perception and production. Participants completed a pretest assessing their ability to discriminate the second language English heed-hid contrast and produce these vowels in sentence contexts. The intervention involved training with the Speakometer mobile application, which incorporated recording tasks featuring the English vowels, along with pronunciation feedback and practice. The posttest mirrored the pretest to measure changes in performance. The results revealed significant improvements in both discrimination accuracy and production of the target contrast following the intervention. However, participants did not achieve native-like competence. These findings highlight the effectiveness of AI-powered applications in facilitating speech acquisition and support their potential use for personalized, interactive pronunciation training beyond the classroom.
- Abstract(参考訳): 外国語発音向上のためのさまざまな応用を通じて人工知能(AI)を用いた研究が進んでいるが、主に理解性や知性といった側面に焦点を当てており、知覚と生産の両方において個々の音声音の改善を無視している。
本研究は,AIを用いたモバイルアプリケーションによるトレーニングが非ネイティブな音知覚と生産に与える影響を調べることによって,このギャップに対処することを目的とする。
参加者は、第二言語英語のHeed-hidコントラストを識別し、これらの母音を文の文脈で生成する能力を評価する事前試験を完了した。
この介入には、英語の母音を特徴とする録音タスクと発音フィードバックと練習を取り入れたSpeakometer Mobileアプリケーションによるトレーニングが含まれていた。
ポストテストは、パフォーマンスの変化を測定するために事前試験を反映しました。
その結果,介入後の判別精度と目標コントラストの生成に有意な改善が認められた。
しかし、参加者はネイティブライクな能力は得られなかった。
これらの知見は、AIを活用した音声習得の促進と、教室外におけるパーソナライズされた対話型発音訓練の潜在的利用を支援する効果を浮き彫りにした。
関連論文リスト
- "It's not a representation of me": Examining Accent Bias and Digital Exclusion in Synthetic AI Voice Services [3.8931913630405393]
本研究では、混合手法を用いて2つの合成AI音声サービス(SpeechifyとElevenLabs)を評価する。
以上の結果から,5つの地域,英語のアクセントにおける技術的特徴の相違が判明した。
現在の音声生成技術は、言語特権とアクセントに基づく差別を不注意に強化することができる。
論文 参考訳(メタデータ) (2025-04-12T21:31:22Z) - Listening for Expert Identified Linguistic Features: Assessment of Audio Deepfake Discernment among Undergraduate Students [0.0]
本稿では,専門家が定義した言語的特徴を聴くことで,大学生が音声深層認識能力を向上させるための教育効果を評価する。
我々の研究は、ディープフェイク識別メカニズムとして、ターゲット言語的手がかりをリスナーに導入することで、情報教育に留まらない。
その結果, 実験群は, 音声クリップの評価における不確実性が統計的に顕著に低下し, 当初不確実であったクリップを正確に識別する能力が向上したことがわかった。
論文 参考訳(メタデータ) (2024-11-21T20:52:02Z) - Predictive Speech Recognition and End-of-Utterance Detection Towards Spoken Dialog Systems [55.99999020778169]
本稿では,次の単語を予測し,発話終了まで残される時間を推定する機能について検討する。
我々は,音響情報と言語情報の両方を組み込んだクロスアテンションに基づくアルゴリズムを開発した。
その結果,提案モデルでは,提案する単語を予測し,将来のEOUイベントを実際のEOUより300ミリ秒前まで推定する能力を示した。
論文 参考訳(メタデータ) (2024-09-30T06:29:58Z) - Learning Through AI-Clones: Enhancing Self-Perception and Presentation Performance [7.151400656424202]
44人の国際学生による混合設計実験は、オンライン英語プレゼンテーションの自己記録ビデオ(自己記録グループ)とAIクローンビデオ(AIクローングループ)を比較した。
その結果、AIクローンは、社会的比較を容易にするために肯定的な「ロールモデル」として機能していた。
論文 参考訳(メタデータ) (2023-10-23T17:20:08Z) - High-Quality Automatic Voice Over with Accurate Alignment: Supervision
through Self-Supervised Discrete Speech Units [69.06657692891447]
本稿では,自己教師付き離散音声単位予測の学習目的を活用した新しいAVO手法を提案する。
実験結果から,提案手法は有意な唇音声同期と高音質を実現することが示された。
論文 参考訳(メタデータ) (2023-06-29T15:02:22Z) - Incorporating L2 Phonemes Using Articulatory Features for Robust Speech
Recognition [2.8360662552057323]
本研究は,韓国語音素を指すL2音素の効率的な組み込みについて,音声特徴分析を用いて検討した。
格子のない最大相互情報(LF-MMI)の目的をエンドツーエンドに使い、音響モデルを訓練し、複数の発音候補のうちの1つを調整・予測する。
実験結果から,提案手法は韓国語L2音声のASR精度をL1音声データのみに基づく訓練により向上させることが示された。
論文 参考訳(メタデータ) (2023-06-05T01:55:33Z) - An Exploration of Self-Supervised Pretrained Representations for
End-to-End Speech Recognition [98.70304981174748]
本稿では,事前訓練された音声表現の一般応用,高度なエンドツーエンド自動音声認識(E2E-ASR)モデルに焦点をあてる。
いくつかの事前訓練された音声表現を選択し、E2E-ASRのための様々なオープンソースおよび公開コーパスの実験結果を示す。
論文 参考訳(メタデータ) (2021-10-09T15:06:09Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - UniSpeech: Unified Speech Representation Learning with Labeled and
Unlabeled Data [54.733889961024445]
ラベル付きデータとラベル付きデータの両方を用いて音声表現を学習するためのUniSpeechという統合事前学習手法を提案する。
公立CommonVoiceコーパス上での言語間表現学習におけるUniSpeechの有効性を評価する。
論文 参考訳(メタデータ) (2021-01-19T12:53:43Z) - Visual-speech Synthesis of Exaggerated Corrective Feedback [32.88905525975493]
コンピュータ支援発音訓練(CAPT)における視覚音声フィードバックの過大評価手法を提案する。
音声強調は、タコトロンに基づく強調音声生成ニューラルネットワークにより実現される。
過大評価されたフィードバックは、発音識別と発音改善の学習者を支援するために、過大評価されたバージョンよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-12T08:37:22Z) - Speech Enhancement using Self-Adaptation and Multi-Head Self-Attention [70.82604384963679]
本稿では,補助的話者認識機能を用いた音声強調のための自己適応手法について検討する。
テスト発話から直接適応に用いる話者表現を抽出する。
論文 参考訳(メタデータ) (2020-02-14T05:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。