論文の概要: Historical and psycholinguistic perspectives on morphological productivity: A sketch of an integrative approach
- arxiv url: http://arxiv.org/abs/2505.12071v1
- Date: Sat, 17 May 2025 16:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.021416
- Title: Historical and psycholinguistic perspectives on morphological productivity: A sketch of an integrative approach
- Title(参考訳): 形態的生産性に関する歴史的・精神言語学的視点:統合的アプローチのスケッチ
- Authors: Harald Baayen, Kristian Berg, Maziyah Mohamed,
- Abstract要約: 我々は,心的語彙の認知的計算モデル,識別的語彙モデルを利用する。
フィンランドの名詞の屈折、マレーの導出、および英語の合成について、DLMを計算ツールとして用いて検討する。
第2の視点を発達させるため,多作作家のトーマス・マンの摂取とアウトプットが時間とともにどのように変化するかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we approach morphological productivity from two perspectives: a cognitive-computational perspective, and a diachronic perspective zooming in on an actual speaker, Thomas Mann. For developing the first perspective, we make use of a cognitive computational model of the mental lexicon, the discriminative lexicon model. For computational mappings between form and meaning to be productive, in the sense that novel, previously unencountered words, can be understood and produced, there must be systematicities between the form space and the semantic space. If the relation between form and meaning would be truly arbitrary, a model could memorize form and meaning pairings, but there is no way in which the model would be able to generalize to novel test data. For Finnish nominal inflection, Malay derivation, and English compounding, we explore, using the Discriminative Lexicon Model as a computational tool, to trace differences in the degree to which inflectional and word formation patterns are productive. We show that the DLM tends to associate affix-like sublexical units with the centroids of the embeddings of the words with a given affix. For developing the second perspective, we study how the intake and output of one prolific writer, Thomas Mann, changes over time. We show by means of an examination of what Thomas Mann is likely to have read, and what he wrote, that the rate at which Mann produces novel derived words is extremely low. There are far more novel words in his input than in his output. We show that Thomas Mann is less likely to produce a novel derived word with a given suffix the greater the average distance is of the embeddings of all derived words to the corresponding centroid, and discuss the challenges of using speaker-specific embeddings for low-frequency and novel words.
- Abstract(参考訳): 本研究では,2つの視点から形態的生産性にアプローチする:認知・計算的視点と,実際の話者であるトーマス・マンにズームインするダイアクロニック視点である。
第一の視点を発達させるために、我々は、識別的語彙モデルであるメンタルレキシコンの認知的計算モデルを利用する。
形式と意味の間の計算的マッピングが生産的であるためには、前述しない言葉を理解・生成できるという意味で、形式空間と意味空間の間には体系性が必要である。
形式と意味の関係が真に任意であれば、モデルは形式と意味のペアリングを記憶することができるが、新しいテストデータに一般化する方法はない。
フィンランドの名詞の屈折、マレーの派生、および英語の合成について、識別的語彙モデルを計算ツールとして用いて、屈折パターンと単語形成パターンが生産される程度の違いを追究する。
DLMは接尾辞のような部分語彙単位と単語の埋め込みのセントロイドを与えられた接尾辞に関連付ける傾向があることを示す。
第2の視点を発達させるため,多作作家のトーマス・マンの摂取とアウトプットが時間とともにどのように変化するかを考察する。
我々は、トーマス・マンが読んだであろうもの、そして彼が書いたものを調べることによって、マンが新規に派生した単語を作り出す率は非常に低いことを示している。
彼の入力には、彼の出力よりもはるかに新しい単語がある。
トーマス・マンが与えられた接尾辞を持つ新規な派生語を生成する確率は低いが, 平均距離は全ての派生語を対応するセントロイドに埋め込むことで, 低周波および新規な単語に話者特異的な埋め込みを用いることの課題について議論する。
関連論文リスト
- A Distributional Perspective on Word Learning in Neural Language Models [57.41607944290822]
言語モデルにおける単語学習のための広く合意されたメトリクスは存在しない。
我々は、先行研究で研究された分布シグネチャは、重要な分布情報の取得に失敗すると主張している。
我々は、スクラッチから訓練する小さな言語モデルを選択するための学習軌跡を得る。
論文 参考訳(メタデータ) (2025-02-09T13:15:59Z) - Reverse-Engineering the Reader [43.26660964074272]
本稿では,線形回帰器のパラメータを暗黙的に最適化するために,言語モデルを微調整する新しいアライメント手法を提案する。
単語をテストケースとして使用し、複数のモデルサイズとデータセットにわたる手法を評価する。
ダウンストリームNLPタスクにおける心理測定パワーとモデルの性能の逆関係と、ホールドアウトテストデータにおけるその難易度を見出した。
論文 参考訳(メタデータ) (2024-10-16T23:05:01Z) - Identifying and interpreting non-aligned human conceptual
representations using language modeling [0.0]
先天性失明は,a-モダル語と知覚関連言語ドメインの両方において概念的再編成を引き起こすことを示す。
視覚障害者は、より強く社会的・認知的な意味と、行動に関連する動詞を関連づける。
一部の動詞では、盲目と盲目の表現は非常に似ている。
論文 参考訳(メタデータ) (2024-03-10T13:02:27Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Theory of Hallucinations based on Equivariance [0.0]
現代の大きな言語モデルにおける幻覚は、しばしば現実世界の社会関係の誤解に起因する。
ある種の同変言語モデルは、これらの関係を学習し理解するのに適していると提案する。
言語モデルのための幻覚尺度を作成するために,特殊なクロスエントロピー誤差関数を開発した。
論文 参考訳(メタデータ) (2023-12-22T08:08:45Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Topics in the Haystack: Extracting and Evaluating Topics beyond
Coherence [0.0]
本稿では,文と文書のテーマを深く理解する手法を提案する。
これにより、一般的な単語やネオロジズムを含む潜在トピックを検出することができる。
本稿では, 侵入者の単語の人間識別と相関係数を示し, 単語侵入作業において, ほぼ人間レベルの結果を得る。
論文 参考訳(メタデータ) (2023-03-30T12:24:25Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。