論文の概要: Learning inflection classes using Adaptive Resonance Theory
- arxiv url: http://arxiv.org/abs/2512.15551v1
- Date: Wed, 17 Dec 2025 15:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.051656
- Title: Learning inflection classes using Adaptive Resonance Theory
- Title(参考訳): 適応共振理論を用いたインフレクション授業の学習
- Authors: Peter Dekker, Heikki Rasilo, Bart de Boer,
- Abstract要約: 本研究では,個々の言語利用者による言語学習の可読性について検討する。
我々は、一般化の度合いを決定するパラメータを持つニューラルネットワークであるAdaptive Resonance Theory(アダプティブ共振理論)を用いる。
クラスタリングと証明されたインフレクションクラスとの類似性は、インフレクションシステムの複雑さによって異なる。
- 参考スコア(独自算出の注目度): 0.2676349883103403
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The concept of inflection classes is an abstraction used by linguists, and provides a means to describe patterns in languages that give an analogical base for deducing previously unencountered forms. This ability is an important part of morphological acquisition and processing. We study the learnability of a system of verbal inflection classes by the individual language user by performing unsupervised clustering of lexemes into inflection classes. As a cognitively plausible and interpretable computational model, we use Adaptive Resonance Theory, a neural network with a parameter that determines the degree of generalisation (vigilance). The model is applied to Latin, Portuguese and Estonian. The similarity of clustering to attested inflection classes varies depending on the complexity of the inflectional system. We find the best performance in a narrow region of the generalisation parameter. The learned features extracted from the model show similarity with linguistic descriptions of the inflection classes. The proposed model could be used to study change in inflection classes in the future, by including it in an agent-based model.
- Abstract(参考訳): インフレクション・クラスの概念は言語学者が用いた抽象概念であり、以前は説明されていない形式を推論する類似の基盤を与える言語におけるパターンを記述する手段を提供する。
この能力は形態学的獲得と処理の重要な部分である。
本研究では,レキセムの教師なしクラスタリングをインフレクションクラスに実施することにより,個々の言語利用者による言語学習システムの学習可能性について検討する。
認知的に妥当で解釈可能な計算モデルとして、一般化の度合いを決定するパラメータを持つニューラルネットワークであるAdaptive Resonance Theory(アダプティブ共鳴理論)を用いる。
モデルはラテン語、ポルトガル語、エストニア語に適用される。
クラスタリングと証明されたインフレクションクラスとの類似性は、インフレクションシステムの複雑さによって異なる。
一般化パラメータの狭い領域で最高の性能を得る。
モデルから抽出した学習特徴は、屈折クラスの言語記述と類似している。
提案モデルは,エージェントベースモデルに含めることにより,将来的なインフレクションクラスの変化を研究するために利用することができる。
関連論文リスト
- Analyzing Finnish Inflectional Classes through Discriminative Lexicon and Deep Learning Models [42.045109659898465]
屈折クラスは、類似した茎の変化を持つ名詞をまとめ、それらのパラダイムで同様の指数を使用する。
インフレクションのクラスが認知的に本物かどうかは不明である。
この研究は、49の屈折クラスから2000の高周波フィンランド名詞の55,271の屈折名詞を持つデータセットを用いている。
論文 参考訳(メタデータ) (2025-09-05T05:24:56Z) - Gumbel Counterfactual Generation From Language Models [64.55296662926919]
対実的推論が介入と概念的に異なることを示す。
そこで本研究では,真の文字列反事実を生成するためのフレームワークを提案する。
提案手法は,従来の介入手法が望ましくない副作用を有意に生み出しているのに対し,本手法は有意義な反事実を生じさせることを示す。
論文 参考訳(メタデータ) (2024-11-11T17:57:30Z) - On the Proper Treatment of Tokenization in Psycholinguistics [53.960910019072436]
論文は、トークンレベルの言語モデルは、精神言語学研究で使用される前に、文字レベルの言語モデルにマージ化されるべきであると主張している。
興味領域自体のサブプライムよりも心理学的予測が優れている様々な焦点領域を見いだす。
論文 参考訳(メタデータ) (2024-10-03T17:18:03Z) - Oracle Linguistic Graphs Complement a Pretrained Transformer Language
Model: A Cross-formalism Comparison [13.31232311913236]
言語グラフ表現が神経言語モデリングを補完し改善する程度について検討する。
全体としては、セマンティックな選挙区構造は言語モデリングのパフォーマンスに最も有用である。
論文 参考訳(メタデータ) (2021-12-15T04:29:02Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Modeling morphology with Linear Discriminative Learning: considerations
and design choices [1.3535770763481905]
本研究では,線形識別学習を用いて屈折形態をモデル化する際に生じる一連の方法論的問題に対処する。
形態の表現と意味がモデルパフォーマンスに与える影響について、どのように判断したかを説明する。
本稿では,文脈における単語の学習を近似するために,モデルをどのように設定するかについて議論する。
論文 参考訳(メタデータ) (2021-06-15T07:37:52Z) - Linguistically inspired morphological inflection with a sequence to
sequence model [19.892441884896893]
我々の研究課題は、ニューラルネットワークが反射生成のための屈折形態を学習できるかどうかである。
我々は、この仮説をテストするために、屈折コーパスと単一の層Seq2seqモデルを使用している。
キャラクタ・ツー・キャラクタとインフレクションアフィクスをキャラクタブロックとして予測することにより,文字形態に基づくモデルでインフレクションを生成する。
論文 参考訳(メタデータ) (2020-09-04T08:58:42Z) - Do Neural Models Learn Systematicity of Monotonicity Inference in
Natural Language? [41.649440404203595]
本稿では,ニューラルネットワークが自然言語の単調推論の体系性を学習できるかどうかを評価する手法を提案する。
単調性推論の4つの側面を考察し、モデルが異なるトレーニング/テスト分割における語彙的および論理的現象を体系的に解釈できるかどうかを検証する。
論文 参考訳(メタデータ) (2020-04-30T14:48:39Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。