論文の概要: The Greedy and Recursive Search for Morphological Productivity
- arxiv url: http://arxiv.org/abs/2105.05790v1
- Date: Wed, 12 May 2021 17:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:51:19.043783
- Title: The Greedy and Recursive Search for Morphological Productivity
- Title(参考訳): 形態的生産性の欲求と再帰的探索
- Authors: Caleb Belth, Sarah Payne, Deniz Beser, Jordan Kodner, Charles Yang
- Abstract要約: 形態素学習は、完全に生産的な規則でさえ例外があるという事実によって挑戦される。
許容原則は、生産的ルールが耐えうる例外の正確なしきい値を提供する最近の提案である。
本稿では,ルールを自動的に仮定し,語彙よりも生産性を評価する欲望検索モデルを提案する。
- 参考スコア(独自算出の注目度): 9.082163670985281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As children acquire the knowledge of their language's morphology, they
invariably discover the productive processes that can generalize to new words.
Morphological learning is made challenging by the fact that even fully
productive rules have exceptions, as in the well-known case of English past
tense verbs, which features the -ed rule against the irregular verbs. The
Tolerance Principle is a recent proposal that provides a precise threshold of
exceptions that a productive rule can withstand. Its empirical application so
far, however, requires the researcher to fully specify rules defined over a set
of words. We propose a greedy search model that automatically hypothesizes
rules and evaluates their productivity over a vocabulary. When the search for
broader productivity fails, the model recursively subdivides the vocabulary and
continues the search for productivity over narrower rules. Trained on
psychologically realistic data from child-directed input, our model displays
developmental patterns observed in child morphology acquisition, including the
notoriously complex case of German noun pluralization. It also produces
responses to nonce words that, despite receiving only a fraction of the
training data, are more similar to those of human subjects than current neural
network models' responses are.
- Abstract(参考訳): 子どもが言語の形態に関する知識を身につけると、新しい単語に一般化できる生産的なプロセスが必ず見つかる。
形態素学習は、完全に生産的な規則でさえ例外があり、例えば英語の過去時制動詞の場合のように、不規則動詞に対する-ed規則が特徴である。
許容原則は、生産的ルールが耐えうる例外の正確なしきい値を提供する最近の提案である。
しかし、これまでの経験的応用では、研究者は単語の集合上で定義された規則を完全に指定する必要がある。
本稿では,ルールを自動的に仮定し,語彙よりも生産性を評価する欲望検索モデルを提案する。
幅広い生産性の探索が失敗すると、モデルは再帰的に語彙を分割し、より狭いルールで生産性の探索を継続する。
幼児向け入力から心理的に現実的なデータに基づいて学習したモデルでは,ドイツ名詞の多元化の悪名高い症例を含む,幼児形態獲得で観察される発達パターンを示す。
また、トレーニングデータのほんの一部しか受け取っていないにもかかわらず、現在のニューラルネットワークモデルの応答よりも、人間の被験者によく似たニュアンスワードに対する応答を生成する。
関連論文リスト
- Testing learning hypotheses using neural networks by manipulating learning data [20.525923251193472]
ニューラルネットワーク言語モデルでは、人間が表示するものと類似した受動的制約を学習できることが示される。
動詞が受動的に現れる頻度は受動性に大きな影響を及ぼすが、動詞の意味論は影響しない。
論文 参考訳(メタデータ) (2024-07-05T15:41:30Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Self-Normalized Importance Sampling for Neural Language Modeling [97.96857871187052]
本研究では, 自己正規化重要度サンプリングを提案し, これまでの研究と比較すると, 本研究で考慮された基準は自己正規化されており, さらに修正を行う必要はない。
提案する自己正規化重要度サンプリングは,研究指向と生産指向の両方の自動音声認識タスクにおいて競合することを示す。
論文 参考訳(メタデータ) (2021-11-11T16:57:53Z) - Modeling morphology with Linear Discriminative Learning: considerations
and design choices [1.3535770763481905]
本研究では,線形識別学習を用いて屈折形態をモデル化する際に生じる一連の方法論的問題に対処する。
形態の表現と意味がモデルパフォーマンスに与える影響について、どのように判断したかを説明する。
本稿では,文脈における単語の学習を近似するために,モデルをどのように設定するかについて議論する。
論文 参考訳(メタデータ) (2021-06-15T07:37:52Z) - Overcoming Poor Word Embeddings with Word Definitions [1.0878040851638]
より稀な単語に依存する例は、自然言語推論モデルにおいてより困難であることを示す。
モデルの定義に対する理解は通常、よくモデル化された単語埋め込みよりも弱いが、完全に訓練されていない単語の使用からパフォーマンスのギャップの大部分を回復する。
論文 参考訳(メタデータ) (2021-03-05T17:57:54Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Investigating Cross-Linguistic Adjective Ordering Tendencies with a
Latent-Variable Model [66.84264870118723]
本稿では,多言語形容詞順序付けを潜在変数モデルとして,初めて純粋コーパス駆動モデルを提案する。
我々は普遍的、言語横断的、階層的形容詞順序付け傾向の存在の強い確固たる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-09T18:27:55Z) - Unsupervised Text Generation by Learning from Search [86.51619839836331]
TGLSは、教師なしテキスト生成のための新しいフレームワークである。
実世界の自然言語生成タスクであるパラフレーズ生成とテキストの形式化におけるTGLSの有効性を示す。
論文 参考訳(メタデータ) (2020-07-09T04:34:48Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - Leveraging Cognitive Search Patterns to Enhance Automated Natural
Language Retrieval Performance [0.0]
ユーザの検索行動を模倣する認知的再構成パターンが強調されている。
問合せの概念表現を考慮し,これらのパターンの適用を形式化する。
遺伝的アルゴリズムに基づく重み付けプロセスでは、概念的役割タイプに応じて用語に重点を置くことができる。
論文 参考訳(メタデータ) (2020-04-21T14:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。