論文の概要: Mmm whatcha say? Uncovering distal and proximal context effects in first and second-language word perception using psychophysical reverse correlation
- arxiv url: http://arxiv.org/abs/2406.05515v1
- Date: Sat, 8 Jun 2024 16:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 19:16:08.624029
- Title: Mmm whatcha say? Uncovering distal and proximal context effects in first and second-language word perception using psychophysical reverse correlation
- Title(参考訳): Mmm Whatcha say?精神物理学的逆相関を用いた第1語および第2語単語知覚における遠位・近位文脈効果の解明
- Authors: Paige Tuttösí, H. Henny Yeung, Yue Wang, Fenqi Wang, Guillaume Denis, Jean-Julien Aucouturier, Angelica Lim,
- Abstract要約: 母音知覚は周囲のピッチと発声率の相反する影響によって影響されることを示す。
本研究では, 刺激, 時間スケール, 音響領域にまたがる音環境効果について検討する。
- 参考スコア(独自算出の注目度): 2.785498376469858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Acoustic context effects, where surrounding changes in pitch, rate or timbre influence the perception of a sound, are well documented in speech perception, but how they interact with language background remains unclear. Using a reverse-correlation approach, we systematically varied the pitch and speech rate in phrases around different pairs of vowels for second language (L2) speakers of English (/i/-/I/) and French (/u/-/y/), thus reconstructing, in a data-driven manner, the prosodic profiles that bias their perception. Testing English and French speakers (n=25), we showed that vowel perception is in fact influenced by conflicting effects from the surrounding pitch and speech rate: a congruent proximal effect 0.2s pre-target and a distal contrastive effect up to 1s before; and found that L1 and L2 speakers exhibited strikingly similar prosodic profiles in perception. We provide a novel method to investigate acoustic context effects across stimuli, timescales, and acoustic domain.
- Abstract(参考訳): ピッチ、レート、音色の変化が音の知覚に影響を及ぼす音環境効果は、音声知覚において十分に文書化されているが、それらが言語背景とどのように相互作用するかは、まだ不明である。
逆相関法を用いて, 第二言語話者(/i/-/I/)とフランス語話者(/u/-/y/)の異なる母音対のフレーズのピッチと発話速度を体系的に変化させ, データ駆動方式で韻律プロファイルを再構成した。
英語とフランス語の話者 (n=25) を比較したところ, 母音の知覚は, 周囲のピッチと発話速度の相反する効果, 一致した近位効果0.2と最大1秒前の遠位コントラスト効果の影響を受けており, L1とL2話者は印象的に類似した韻律的特徴を示した。
本研究では, 刺激, 時間スケール, 音響領域にまたがる音環境効果について検討する。
関連論文リスト
- Perception of Phonological Assimilation by Neural Speech Recognition Models [3.4173734484549625]
本稿では、ニューラルネットワーク認識モデルであるWav2Vec2が、同化音をどのように知覚するかを考察する。
心理言語学的刺激を用いて、様々な言語文脈がモデル出力の補償パターンにどのように影響するかを分析する。
論文 参考訳(メタデータ) (2024-06-21T15:58:22Z) - Adversarial Training For Low-Resource Disfluency Correction [50.51901599433536]
ディフルエンシ補正(DC)のための逆学習型シーケンスタグ付けモデルを提案する。
提案手法の利点は,3つのインド語でDCに対して評価することで,合成された非流動データに大きく依存することを示す。
また,本手法は,音声障害によって導入されたASR文字の破面的不一致の除去にも有効である。
論文 参考訳(メタデータ) (2023-06-10T08:58:53Z) - Neighboring Words Affect Human Interpretation of Saliency Explanations [65.29015910991261]
単語レベルのサリエンシの説明は、しばしばテキストベースのモデルで特徴属性を伝えるために使われる。
近年の研究では、単語の長さなどの表面的要因が、コミュニケーションされたサリエンシスコアの人間の解釈を歪めてしまうことが報告されている。
本研究では,単語の近傍にある単語のマーキングが,その単語の重要性に対する説明者の認識にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2023-05-04T09:50:25Z) - Neural inhibition during speech planning contributes to contrastive
hyperarticulation [0.17767466724342065]
本稿では音声開始時間(VOT)計画の動的ニューラルネットワーク(DNF)モデルを提案する。
疑似単語における無声停止子音VOTのCHに関する新しい実験により,モデルの予測を検証した。
その結果, 擬似単語におけるCH効果は, 音声のリアルタイム計画・生成における効果の基盤と一致していることがわかった。
論文 参考訳(メタデータ) (2022-09-25T17:54:59Z) - Predicting non-native speech perception using the Perceptual
Assimilation Model and state-of-the-art acoustic models [9.858745856649998]
61母音に対するフランス語および英語話者の音声知覚行動の新しいオープンデータセットを提案する。
音素同化は, 識別行動全体において, きめ細かい音素モデルよりも優れた予測因子であることを示す。
また、wav2vec 2.0は、ネイティブ言語が音声知覚に与える影響を捉えるのが得意ではないが、ネイティブ音素同化に関する情報と相補的であることも示している。
論文 参考訳(メタデータ) (2022-05-31T14:25:59Z) - Measuring the Impact of Individual Domain Factors in Self-Supervised
Pre-Training [60.825471653739555]
音素領域因子は事前学習において重要な役割を担っているが,文法的・統語的要因はそれほど重要ではない。
本研究は,音声認識のための自己教師付き事前学習における事前学習セットのドメイン特性をよりよく理解するための最初の研究である。
論文 参考訳(メタデータ) (2022-03-01T17:40:51Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - Learning Audio-Visual Dereverberation [87.52880019747435]
環境中の表面や物体を反射する音声からの残響は、人間の知覚の質を低下させるだけでなく、自動音声認識の精度にも深刻な影響を及ぼす。
我々の考えは、音声・視覚的観察から音声を除去することである。
そこで我々は,観測音と映像シーンの両方に基づいて残響を除去することを学ぶエンドツーエンドアプローチである,視覚インフォームド・デバーベレーション・オブ・オーディオ(VIDA)を紹介した。
論文 参考訳(メタデータ) (2021-06-14T20:01:24Z) - Robust Audio-Visual Instance Discrimination [79.74625434659443]
音声・映像表現を学習するための自己指導型学習法を提案する。
視聴覚インスタンスの識別の問題に対処し、転送学習パフォーマンスを向上させます。
論文 参考訳(メタデータ) (2021-03-29T19:52:29Z) - Prosody leaks into the memories of words [2.309770674164469]
文脈における単語の平均予測可能性(すなわち情報性)は、条件付き単語持続時間を示す。
この研究は過去の研究を2つの方向に拡張し、もう一つの大きな言語である中国語における情報伝達効果について研究した。
その結果,低情報率の単語は短い期間であり,英語で見られる効果を再現していることがわかった。
論文 参考訳(メタデータ) (2020-05-29T17:58:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。