論文の概要: Analyzing Finnish Inflectional Classes through Discriminative Lexicon and Deep Learning Models
- arxiv url: http://arxiv.org/abs/2509.04813v1
- Date: Fri, 05 Sep 2025 05:24:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.483449
- Title: Analyzing Finnish Inflectional Classes through Discriminative Lexicon and Deep Learning Models
- Title(参考訳): 識別的語彙と深層学習モデルによるフィンランドの屈折クラスの解析
- Authors: Alexandre Nikolaev, Yu-Ying Chuang, R. Harald Baayen,
- Abstract要約: 屈折クラスは、類似した茎の変化を持つ名詞をまとめ、それらのパラダイムで同様の指数を使用する。
インフレクションのクラスが認知的に本物かどうかは不明である。
この研究は、49の屈折クラスから2000の高周波フィンランド名詞の55,271の屈折名詞を持つデータセットを用いている。
- 参考スコア(独自算出の注目度): 42.045109659898465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Descriptions of complex nominal or verbal systems make use of inflectional classes. Inflectional classes bring together nouns which have similar stem changes and use similar exponents in their paradigms. Although inflectional classes can be very useful for language teaching as well as for setting up finite state morphological systems, it is unclear whether inflectional classes are cognitively real, in the sense that native speakers would need to discover these classes in order to learn how to properly inflect the nouns of their language. This study investigates whether the Discriminative Lexicon Model (DLM) can understand and produce Finnish inflected nouns without setting up inflectional classes, using a dataset with 55,271 inflected nouns of 2000 high-frequency Finnish nouns from 49 inflectional classes. Several DLM comprehension and production models were set up. Some models were not informed about frequency of use, and provide insight into learnability with infinite exposure (endstate learning). Other models were set up from a usage based perspective, and were trained with token frequencies being taken into consideration (frequency-informed learning). On training data, models performed with very high accuracies. For held-out test data, accuracies decreased, as expected, but remained acceptable. Across most models, performance increased for inflectional classes with more types, more lower-frequency words, and more hapax legomena, mirroring the productivity of the inflectional classes. The model struggles more with novel forms of unproductive and less productive classes, and performs far better for unseen forms belonging to productive classes. However, for usage-based production models, frequency was the dominant predictor of model performance, and correlations with measures of productivity were tenuous or absent.
- Abstract(参考訳): 複雑な名詞や動詞の体系の記述は、屈折クラスを利用する。
屈折クラスは、類似した茎の変化を持つ名詞をまとめ、それらのパラダイムで同様の指数を使用する。
インフレクショナル・クラスは、言語教育や有限状態形態学システムの構築に非常に有用であるが、インフレクショナル・クラスが認知的に本物であるかどうかは不明であり、ネイティブ・スピーカーは、言語の名詞を適切に表現する方法を学ぶためにこれらのクラスを発見する必要がある。
本研究は, 識別的語彙モデル (DLM) が, 屈折型クラスを設定せずにフィンランドの屈折型名詞を理解・生成できるかどうかを, 49個の屈折型クラスから2000個の高周波型フィンランド語名詞の55,271個からなるデータセットを用いて検討した。
いくつかのDLMの理解と生産モデルが設定された。
いくつかのモデルは、使用頻度について知らされず、無限露出による学習可能性に関する洞察を提供する。
その他のモデルは使用法に基づく視点で設定され、トークン周波数を考慮して訓練された(周波数インフォームドラーニング)。
トレーニングデータでは、非常に高い精度でモデルが実行されました。
保留試験データでは, 予想通りアキュラシーは低下したが, 受け入れられた。
ほとんどのモデルにおいて、より多くの型、より低い周波数の単語、よりハファックス・レゴメナを持つ屈折クラスのパフォーマンスが向上し、屈折クラスの生産性を反映した。
このモデルは、非生産的で生産性の低い新しい形式とより競合し、生産的なクラスに属する目に見えない形式に対してはるかに良く機能する。
しかし, 使用量に基づく生産モデルでは, 周波数がモデル性能の主要な予測因子であり, 生産性の指標との相関は不確実であった。
関連論文リスト
- On the Proper Treatment of Tokenization in Psycholinguistics [53.960910019072436]
論文は、トークンレベルの言語モデルは、精神言語学研究で使用される前に、文字レベルの言語モデルにマージ化されるべきであると主張している。
興味領域自体のサブプライムよりも心理学的予測が優れている様々な焦点領域を見いだす。
論文 参考訳(メタデータ) (2024-10-03T17:18:03Z) - Counteracts: Testing Stereotypical Representation in Pre-trained
Language Models [4.211128681972148]
我々は,事前学習言語モデル(PLM)の内部ステレオタイプ知識を調べるために,反例を用いている。
我々は,9種類のクローゼスタイルのプロンプトに対して,異なる情報と基本知識で7つのPLMを評価する。
論文 参考訳(メタデータ) (2023-01-11T07:52:59Z) - Lexical Generalization Improves with Larger Models and Longer Training [42.024050065980845]
本稿では,自然言語推論,パラフレーズ検出,読解理解における語彙重なりの活用について分析する。
より大型のモデルでは、語彙的な重複を採用することへの感受性がはるかに低いことが分かりました。
論文 参考訳(メタデータ) (2022-10-23T09:20:11Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Modeling morphology with Linear Discriminative Learning: considerations
and design choices [1.3535770763481905]
本研究では,線形識別学習を用いて屈折形態をモデル化する際に生じる一連の方法論的問題に対処する。
形態の表現と意味がモデルパフォーマンスに与える影響について、どのように判断したかを説明する。
本稿では,文脈における単語の学習を近似するために,モデルをどのように設定するかについて議論する。
論文 参考訳(メタデータ) (2021-06-15T07:37:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。