論文の概要: Emergent morpho-phonological representations in self-supervised speech models
- arxiv url: http://arxiv.org/abs/2509.22973v1
- Date: Fri, 26 Sep 2025 22:16:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.95997
- Title: Emergent morpho-phonological representations in self-supervised speech models
- Title(参考訳): 自己教師型音声モデルにおける創発的形態・音韻表現
- Authors: Jon Gauthier, Canaan Breiss, Matthew Leonard, Edward F. Chang,
- Abstract要約: 本研究では,単語認識に最適化されたS3M変種が音韻的および形態学的現象をどう表すかを検討する。
それらの表現は、英語の名詞と動詞を通常の屈折形に結びつけるのに使用できる大域的な線形幾何を示す。
- 参考スコア(独自算出の注目度): 3.9374885962486172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised speech models can be trained to efficiently recognize spoken words in naturalistic, noisy environments. However, we do not understand the types of linguistic representations these models use to accomplish this task. To address this question, we study how S3M variants optimized for word recognition represent phonological and morphological phenomena in frequent English noun and verb inflections. We find that their representations exhibit a global linear geometry which can be used to link English nouns and verbs to their regular inflected forms. This geometric structure does not directly track phonological or morphological units. Instead, it tracks the regular distributional relationships linking many word pairs in the English lexicon -- often, but not always, due to morphological inflection. These findings point to candidate representational strategies that may support human spoken word recognition, challenging the presumed necessity of distinct linguistic representations of phonology and morphology.
- Abstract(参考訳): 自己教師型音声モデルは、自然的、雑音の多い環境で、音声を効率的に認識するように訓練することができる。
しかし、これらのモデルがこの課題を達成するために使用する言語表現のタイプは理解されていない。
そこで本研究では,単語認識に最適化されたS3M変種が,頻繁な英語名詞と動詞の屈折における音韻的・形態学的現象をどのように表すかを検討する。
それらの表現は、英語の名詞と動詞を通常の屈折形に結びつけるのに使用できる大域的な線形幾何を示す。
この幾何学的構造は、音韻学や形態学の単位を直接追跡しない。
代わりに、英語の辞書で多くの単語対をリンクする正規分布関係を追跡する。
これらの知見は、人間の音声認識を支援するための候補表現戦略を示し、音韻学と形態学の異なる言語表現の必要性を推察するものである。
関連論文リスト
- Probing Subphonemes in Morphology Models [3.937454839700144]
音素を直接訓練したトランスフォーマーにおける音韻的特徴符号化の言語に依存しない探索手法を提案する。
音素の埋め込みにおいて,トルコ語における最終音素発声のような局所的な音韻的特徴がよく捉えられるのに対し,母音調和のような長距離依存は変圧器のエンコーダで表現されるのがよいことを示す。
論文 参考訳(メタデータ) (2025-05-16T14:27:40Z) - BabyLM's First Words: Word Segmentation as a Phonological Probing Task [2.335764524038488]
単語分割が音韻探索のタスクとしてどのように使われるかを示す。
本研究では,31言語にまたがる児童指向音声で学習した音素ベース言語モデルから学習した表現について検討する。
論文 参考訳(メタデータ) (2025-04-04T10:42:56Z) - Unsupervised Mapping of Arguments of Deverbal Nouns to Their
Corresponding Verbal Labels [52.940886615390106]
デバーバル名詞は英語の文章でよく使われる動詞で、出来事や行動やその議論を記述している。
名前付けされた構成の引数を扱うために存在する解決策は意味論的アノテーションに基づいている。
本稿では,より統語的アプローチを導入し,デバーバル名詞の議論を対応する動詞構成にマッピングする。
論文 参考訳(メタデータ) (2023-06-24T10:07:01Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Color Overmodification Emerges from Data-Driven Learning and Pragmatic
Reasoning [53.088796874029974]
話者の指示表現は、実践的な言語使用の性質を照らし出すのに役立つ方法で、コミュニケーションイデアルから逸脱していることを示す。
ニューラルネットワークを学習エージェントとして採用することにより、過度な修正は、頻度の低い、あるいは正常な環境特性に結びつく可能性が高いことを示す。
論文 参考訳(メタデータ) (2022-05-18T18:42:43Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - A phonetic model of non-native spoken word processing [40.018538874161756]
音韻学にアクセスできない音韻学習の計算モデルを1つまたは2つの言語で学習する。
まず、このモデルが、音声レベルおよび単語レベルの識別タスクにおいて予測可能な振る舞いを示すことを示す。
次に、音声による単語処理タスクでモデルをテストし、非母語話者で観察される単語処理の効果を説明するために音韻学は必要ないことを示した。
論文 参考訳(メタデータ) (2021-01-27T11:46:21Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。