論文の概要: A phonetic model of non-native spoken word processing
- arxiv url: http://arxiv.org/abs/2101.11332v1
- Date: Wed, 27 Jan 2021 11:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:40:32.561106
- Title: A phonetic model of non-native spoken word processing
- Title(参考訳): 非母国語音声処理の音声モデル
- Authors: Yevgen Matusevych, Herman Kamper, Thomas Schatz, Naomi H. Feldman,
Sharon Goldwater
- Abstract要約: 音韻学にアクセスできない音韻学習の計算モデルを1つまたは2つの言語で学習する。
まず、このモデルが、音声レベルおよび単語レベルの識別タスクにおいて予測可能な振る舞いを示すことを示す。
次に、音声による単語処理タスクでモデルをテストし、非母語話者で観察される単語処理の効果を説明するために音韻学は必要ないことを示した。
- 参考スコア(独自算出の注目度): 40.018538874161756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-native speakers show difficulties with spoken word processing. Many
studies attribute these difficulties to imprecise phonological encoding of
words in the lexical memory. We test an alternative hypothesis: that some of
these difficulties can arise from the non-native speakers' phonetic perception.
We train a computational model of phonetic learning, which has no access to
phonology, on either one or two languages. We first show that the model
exhibits predictable behaviors on phone-level and word-level discrimination
tasks. We then test the model on a spoken word processing task, showing that
phonology may not be necessary to explain some of the word processing effects
observed in non-native speakers. We run an additional analysis of the model's
lexical representation space, showing that the two training languages are not
fully separated in that space, similarly to the languages of a bilingual human
speaker.
- Abstract(参考訳): 非母語話者は話し言葉処理が困難である。
多くの研究は、これらの困難を語彙記憶における単語の音韻的符号化を含まないものとしている。
我々は、これらの困難のいくつかは、非ネイティブ話者の音声知覚から生じる可能性があるという別の仮説を試す。
私たちは、音韻学にアクセスできない音韻学習の計算モデルを、1つまたは2つの言語で訓練します。
まず、このモデルが電話レベルおよび単語レベルの識別タスクで予測可能な行動を示すことを示した。
次に,音声単語処理タスクでモデルをテストし,非母語話者で観察される単語処理効果を説明するために音韻学は不要であることを示す。
我々は、モデルの語彙表現空間のさらなる分析を行い、二言語話者の言語と同様に、2つの訓練言語がその空間で完全に分離されていないことを示した。
関連論文リスト
- Encoding of lexical tone in self-supervised models of spoken language [3.7270979204213446]
本稿では,音声言語モデル(SLM)のトーン符号化機能の解析を目的とした。
SLMは、非音節言語からのデータに基づいて訓練された場合でも、語彙のトーンをかなりの程度にエンコードすることを示す。
SLMは音色や子音の知覚研究において、母国人や非母国人と同様に振る舞う。
論文 参考訳(メタデータ) (2024-03-25T15:28:38Z) - Improve Bilingual TTS Using Dynamic Language and Phonology Embedding [10.244215079409797]
本稿では,中国語の単言語話者からより標準の英語音声を取得するために,マンダリン・イングリッシュ・TSシステムを構築した。
言語と音韻の動的強度を捉えるための埋め込み強度変調器を特別に設計する。
論文 参考訳(メタデータ) (2022-12-07T03:46:18Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Cross-lingual Low Resource Speaker Adaptation Using Phonological
Features [2.8080708404213373]
我々は、異なる言語に共通する音韻的特徴のセットに基づいて、言語に依存しないマルチスピーカモデルを訓練する。
対象話者データの32と8の発声で、対応する文献に匹敵する高い話者類似度スコアと自然性を得る。
論文 参考訳(メタデータ) (2021-11-17T12:33:42Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - Can phones, syllables, and words emerge as side-products of
cross-situational audiovisual learning? -- A computational investigation [2.28438857884398]
いわゆる潜在言語仮説(LLH)について検討する。
LLHは言語表現学習を、知覚のモダリティ内および横断的な一般的な予測処理に結びつける。
我々は、様々なニューラルネットワークモデルを用いた広範学習シミュレーションにおけるLLHをさらに探求する。
論文 参考訳(メタデータ) (2021-09-29T05:49:46Z) - Evaluating Models of Robust Word Recognition with Serial Reproduction [8.17947290421835]
広範囲確率的生成言語モデルと人間の言語的期待を捉える能力の比較を行った。
先行した言語的文脈の抽象表現を利用するこれらのモデルは、連続再生の過程で人々が行った変化を最もよく予測する。
論文 参考訳(メタデータ) (2021-01-24T20:16:12Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z) - Towards Zero-shot Learning for Automatic Phonemic Transcription [82.9910512414173]
より難しい問題は、トレーニングデータをゼロにする言語のための音素変換器を構築することだ。
我々のモデルは、トレーニングデータなしで、ターゲット言語で見知らぬ音素を認識できる。
標準的な多言語モデルよりも平均して7.7%の音素誤り率を実現している。
論文 参考訳(メタデータ) (2020-02-26T20:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。