論文の概要: Frequency matters: Modeling irregular morphological patterns in Spanish with Transformers
- arxiv url: http://arxiv.org/abs/2410.21013v3
- Date: Sun, 16 Feb 2025 10:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:05:16.260525
- Title: Frequency matters: Modeling irregular morphological patterns in Spanish with Transformers
- Title(参考訳): 周波数問題:変圧器を用いたスペイン語における不規則形態パターンのモデル化
- Authors: Akhilesh Kakolu Ramarao, Kevin Tang, Dinah Baer-Henney,
- Abstract要約: 我々はスペイン語の動詞パラダイムに注目し、ある動詞は不規則なL字型パターンに従う。
変圧器モデルにおける正規パターンと不規則パターンの取得における入力周波数の役割について検討する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License:
- Abstract: Over the past decade, various studies have addressed how speakers solve the so-called `The Paradigm Cell Filling Problem' (PCFP) \citep{ackerman2009parts} across different languages. The PCFP addresses a fundamental question in morphological processing: how do speakers accurately generate inflected forms of words when presented with incomplete paradigms? This problem is particularly salient when modeling complex inflectional systems. We focus on Spanish verbal paradigms, where certain verbs follow an irregular L-shaped pattern, where the first-person singular present indicative stem matches the stem used throughout the present subjunctive mood. We formulate the problem as a morphological reinflection task. Specifically, we investigate the role of input frequency in the acquisition of regular versus irregular L-shaped patterns in transformer models. By systematically manipulating the input distributions and analyzing model behavior, we reveal four key findings: 1) Models perform better on L-shaped verbs compared to regular verbs, especially in uneven frequency conditions; 2) Robust primacy effects are observed, but no consistent recency effects; 3) Memorization becomes more prominent as the proportion of L-shaped verbs increases; 4) There is a tendency to regularize L-shaped verbs when their consonant alternation pairs are rare or absent in the training data.
- Abstract(参考訳): 過去10年間、様々な研究が、話者が様々な言語でいわゆる"The Paradigm Cell Filling Problem" (PCFP) \citep{ackerman2009parts} を解く方法に対処してきた。
PCFPは形態素処理における根本的な問題に対処する:不完全なパラダイムを提示した場合、話者はどのように正確に屈折した単語を生成するのか?
複雑な屈折系をモデル化する場合、この問題は特に顕著である。
我々はスペイン語の動詞のパラダイムに注目し、ある動詞は不規則なL字型パターンに従う。
我々はその問題を形態的回帰タスクとして定式化する。
具体的には、トランスモデルにおける正規パターンと不規則パターンの取得における入力周波数の役割について検討する。
入力分布を体系的に操作し,モデル行動を分析することで,4つの重要な知見が明らかになった。
1) L字型動詞では, 正規動詞と比較して, 特に不均一頻度条件では, モデルの方が良好である。
2)ロバストな優性効果は観察されるが、一貫した再発効果はない。
3)L字動詞の比率が増加するにつれて記憶がより顕著になる。
4) 訓練データでは, 子音交替ペアが稀あるいは欠落している場合には, L字動詞を正規化する傾向が見られた。
関連論文リスト
- Modelling change in neural dynamics during phonetic accommodation [0.0]
我々は,音素調節における音素表現の変化の計算モデルを進めた。
シャドーイング中に母音固有の収束度を示し,その後,ベースラインに戻す。
音声変化の短期的調節と長期的パターンとの関係について考察する。
論文 参考訳(メタデータ) (2025-02-03T10:00:29Z) - Developmental Predictive Coding Model for Early Infancy Mono and Bilingual Vocal Continual Learning [69.8008228833895]
本稿では,連続学習機構を備えた小型生成ニューラルネットワークを提案する。
我々のモデルは解釈可能性を重視し,オンライン学習の利点を実証する。
論文 参考訳(メタデータ) (2024-12-23T10:23:47Z) - Demystifying Verbatim Memorization in Large Language Models [67.49068128909349]
大きな言語モデル(LLM)は、しばしば長いシーケンスを冗長に記憶し、しばしば深刻な法的およびプライバシー上の意味を持つ。
我々は, Pythia チェックポイントからのプレトレーニングをインジェクトシーケンスで継続することにより, 制御された環境下での動詞の暗記を学習する枠組みを開発する。
その結果,(1) 動詞の暗記には非自明な繰り返しが必要であり,(2) 後続の(おそらくはより良い)チェックポイントは,アウト・オブ・ディストリビューション・シーケンスであっても,動詞の列を暗記する傾向にあることがわかった。
論文 参考訳(メタデータ) (2024-07-25T07:10:31Z) - Morphological Inflection with Phonological Features [7.245355976804435]
本研究は,形態素モデルがサブキャラクタの音韻的特徴にアクセスできる様々な方法で得られる性能への影響について検討する。
我々は、浅いグラフ-音素マッピングを持つ言語に対する言語固有の文法を用いて、標準グラフデータから音素データを抽出する。
論文 参考訳(メタデータ) (2023-06-21T21:34:39Z) - How do we get there? Evaluating transformer neural networks as cognitive
models for English past tense inflection [0.0]
私たちは、このタスクの振る舞いを調べるために、異なる設定のトランスフォーマーモデルセットをトレーニングします。
モデルの性能はタイプ周波数と比に大きく影響されるが、トークン周波数と比には影響しない。
変圧器モデルは動詞の規則性の抽象的なカテゴリについてある程度の学習レベルを示すが、その性能は人間のデータによく適合しない。
論文 参考訳(メタデータ) (2022-10-17T15:13:35Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - Can a Transformer Pass the Wug Test? Tuning Copying Bias in Neural
Morphological Inflection Models [9.95909045828344]
より効果的にするためには、幻覚過程は個々の文字や幹よりも音節のような長さに注意を払う必要がある。
トレーニングデータとテストデータが補題に重複しない場合に、従来のデータ幻覚法よりも幻覚モデルで有意なパフォーマンス改善を報告します。
論文 参考訳(メタデータ) (2021-04-13T19:51:21Z) - Do RNN States Encode Abstract Phonological Processes? [9.148410930089502]
連続列列モデルはしばしば17の異なる子音階調過程をRNNの少数の次元で符号化する。
また,これらの次元においてアクティベーションを拡大することにより,子音階調の発生と階調の方向を制御できることも示す。
論文 参考訳(メタデータ) (2021-04-01T22:24:39Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Investigating Cross-Linguistic Adjective Ordering Tendencies with a
Latent-Variable Model [66.84264870118723]
本稿では,多言語形容詞順序付けを潜在変数モデルとして,初めて純粋コーパス駆動モデルを提案する。
我々は普遍的、言語横断的、階層的形容詞順序付け傾向の存在の強い確固たる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-09T18:27:55Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。