論文の概要: Evaluating computational models of infant phonetic learning across
languages
- arxiv url: http://arxiv.org/abs/2008.02888v1
- Date: Thu, 6 Aug 2020 22:07:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:48:05.174537
- Title: Evaluating computational models of infant phonetic learning across
languages
- Title(参考訳): 言語による幼児音声学習の計算モデルの評価
- Authors: Yevgen Matusevych, Thomas Schatz, Herman Kamper, Naomi H. Feldman,
Sharon Goldwater
- Abstract要約: 生後1年で、幼児の発話知覚は母語の音に直感するようになる。
この初期の音声学習に関する多くの説明は存在するが、幼児の音声入力から観察されるパターンを予測する計算モデルは欠如している。
本稿では,その認知関連性について選択した5つのアルゴリズムについて検討する。各アルゴリズムで音素学習をシミュレートし,異なる言語による3つの音声コントラストのテストを行い,その結果を幼児の識別パターンと比較する。
- 参考スコア(独自算出の注目度): 31.587496924289972
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the first year of life, infants' speech perception becomes attuned to the
sounds of their native language. Many accounts of this early phonetic learning
exist, but computational models predicting the attunement patterns observed in
infants from the speech input they hear have been lacking. A recent study
presented the first such model, drawing on algorithms proposed for unsupervised
learning from naturalistic speech, and tested it on a single phone contrast.
Here we study five such algorithms, selected for their potential cognitive
relevance. We simulate phonetic learning with each algorithm and perform tests
on three phone contrasts from different languages, comparing the results to
infants' discrimination patterns. The five models display varying degrees of
agreement with empirical observations, showing that our approach can help
decide between candidate mechanisms for early phonetic learning, and providing
insight into which aspects of the models are critical for capturing infants'
perceptual development.
- Abstract(参考訳): 生後1年で、幼児の言語知覚は母国語の音に合致するようになる。
この初期の音声学習の多くの説明は存在するが、幼児の聴覚入力から観察される減衰パターンを予測する計算モデルが不足している。
最近の研究では、自然言語から教師なし学習のために提案されたアルゴリズムを基にした最初のモデルが提示され、単一の電話コントラストでテストされた。
本稿では,5つのアルゴリズムについて検討する。
我々は,各アルゴリズムを用いて音韻学習をシミュレートし,幼児の識別パターンと比較し,異なる言語と異なる3つの電話コントラストでテストを行う。
5つのモデルは経験的観察と異なる程度に一致しており、我々のアプローチは初期の音韻学習の候補メカニズムを決定するのに役立ち、モデルのどの側面が幼児の知覚発達を捉えるのに重要であるかを知るのに役立ちます。
関連論文リスト
- The formation of perceptual space in early phonetic acquisition: a cross-linguistic modeling approach [0.0]
本研究では,学習者が早期音声習得において知覚空間をどのように構成するかを検討する。
学習した隠れ表現の形状と音韻カテゴリーを分類する能力について検討する。
論文 参考訳(メタデータ) (2024-07-26T04:18:36Z) - A model of early word acquisition based on realistic-scale audiovisual naming events [10.047470656294333]
音声知覚入力における正規性からの統計的学習により,早期語が獲得できる範囲について検討した。
生音声の統計的規則性や画素レベルの視覚入力から学習するモデルを用いて,12ヵ月までの幼児の語学学習を現実的な環境でシミュレーションした。
以上の結果から, 幼児期と同等の語彙成長速度で, 単語の認識とそれに対応する視覚オブジェクトの関連付けを効果的に学習できることが示唆された。
論文 参考訳(メタデータ) (2024-06-07T21:05:59Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - Word Acquisition in Neural Language Models [0.38073142980733]
ニューラルネットワークモデルは,学習中に個々の単語を習得し,学習曲線を抽出し,600以上の単語の獲得年齢を推定する。
子どもや言語モデルでは, 具体性, 単語長, 語彙クラスの影響が顕著に異なることがわかった。
論文 参考訳(メタデータ) (2021-10-05T23:26:16Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z) - A Computational Model of Early Word Learning from the Infant's Point of
View [15.443815646555125]
本研究では,親との遊戯中に幼児の学習者から収集したエゴセントリックな映像と視線データを用いた。
次に、畳み込みニューラルネットワーク(CNN)モデルを用いて、幼児の視点から感覚データを処理し、スクラッチから名前とオブジェクトの関連を学習した。
本研究は,幼児期の単語学習をシミュレートするために生のエゴセントリックビデオを利用する最初のモデルとして,早期語学習の問題を解くことができるという原理の証明を提供する。
論文 参考訳(メタデータ) (2020-06-04T12:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。