論文の概要: Neural Unsupervised Reconstruction of Protolanguage Word Forms
- arxiv url: http://arxiv.org/abs/2211.08684v1
- Date: Wed, 16 Nov 2022 05:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:05:45.013677
- Title: Neural Unsupervised Reconstruction of Protolanguage Word Forms
- Title(参考訳): ニューラルアントラクタによる原語形態の再構成
- Authors: Andre He, Nicholas Tomlin, Dan Klein
- Abstract要約: 古語形態の教師なし再構成に対する最先端のニューラルアプローチを提案する。
我々はこの研究を、より複雑な音韻学的および形態学的変化を捉えることができるニューラルモデルで拡張する。
- 参考スコア(独自算出の注目度): 34.66200889614538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a state-of-the-art neural approach to the unsupervised
reconstruction of ancient word forms. Previous work in this domain used
expectation-maximization to predict simple phonological changes between ancient
word forms and their cognates in modern languages. We extend this work with
neural models that can capture more complicated phonological and morphological
changes. At the same time, we preserve the inductive biases from classical
methods by building monotonic alignment constraints into the model and
deliberately underfitting during the maximization step. We evaluate our
performance on the task of reconstructing Latin from a dataset of cognates
across five Romance languages, achieving a notable reduction in edit distance
from the target word forms compared to previous methods.
- Abstract(参考訳): 古語形態の教師なし再構成に対する最先端のニューラルアプローチを提案する。
この領域の以前の研究は、古代の語形と現代の言語におけるコニャートの間の単純な音韻学的変化を予測するために期待最大化を用いた。
我々はこの仕事を神経モデルで拡張し、より複雑な音韻学的および形態的変化を捉えることができる。
同時に,単調アライメント制約をモデルに構築し,最大化ステップ中に意図的に不適合することで,古典的手法からの帰納的バイアスを保存できる。
5つのロマンス言語にまたがるコーグネートのデータセットからラテン語を再構築する作業における性能を評価し,従来の手法と比較して,単語形式からの編集距離を著しく短縮した。
関連論文リスト
- Improved Neural Protoform Reconstruction via Reflex Prediction [11.105362395278142]
我々は、プロトフォームはコグネート集合(関連する反射の集合)から推論可能であるだけでなく、プロトフォームからも推論可能であるべきだと主張する。
本稿では,リフレクション予測モデルを用いて,再構成モデルから候補となるプロトフォームをリランクするシステムを提案する。
論文 参考訳(メタデータ) (2024-03-27T17:13:38Z) - Pairing Orthographically Variant Literary Words to Standard Equivalents
Using Neural Edit Distance Models [0.0]
本稿は,19世紀の米国文学において,対応する「標準」単語対に注釈を付した正書学的に変化した単語からなる,新しいコーパスを提案する。
我々は、これらの変種を標準形式と組み合わせるために、一連のニューラル編集距離モデルを訓練し、これらのモデルの性能をL2英語学習者による正書法誤差のコーパスに基づいて訓練されたニューラル編集距離モデルの性能と比較する。
論文 参考訳(メタデータ) (2024-01-26T18:49:34Z) - Representing and Computing Uncertainty in Phonological Reconstruction [5.284425534494986]
歴史的言語学では本質的にファジィな再現性にもかかわらず、多くの学者は原型の提案において不確かさを表現していない。
本稿では,言語再建における不確実性の表現を可能にする新しい枠組みを提案するとともに,言語データからファジィ再構成を計算するためのワークフローも提供する。
論文 参考訳(メタデータ) (2023-10-19T13:27:42Z) - Cognate Transformer for Automated Phonological Reconstruction and
Cognate Reflex Prediction [4.609569810881602]
我々は,タンパク質言語モデルであるMSA Transformerを自動音韻再構成の問題に適用した。
MSA Transformerは複数のシーケンスアライメントを入力としてトレーニングし、コグネートな単語に適応する。
また、このモデルを他の関連するタスク、すなわち、他の娘言語のコグナネートな単語に基づいて娘言語の反射語を予測するコグナネートな反射予測に適用する。
論文 参考訳(メタデータ) (2023-10-11T13:34:22Z) - Unsupervised Lexical Substitution with Decontextualised Embeddings [48.00929769805882]
事前学習された言語モデルを用いた語彙置換の新しい教師なし手法を提案する。
本手法は,文脈的および非文脈的単語埋め込みの類似性に基づいて代用語を検索する。
我々は、英語とイタリア語で実験を行い、我々の手法が強いベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-09-17T03:51:47Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - On Long-Tailed Phenomena in Neural Machine Translation [50.65273145888896]
最先端のニューラルネットワーク翻訳(NMT)モデルは、低周波トークンの生成に苦労する。
条件付きテキスト生成における構造的依存関係にモデルトレーニングを適応させるために,新たな損失関数である反焦点損失を提案する。
提案手法は,複数の機械翻訳(MT)データセットに対して有効であり,クロスエントロピーよりも顕著に向上することを示す。
論文 参考訳(メタデータ) (2020-10-10T07:00:57Z) - Neural Baselines for Word Alignment [0.0]
4つの言語対に対する教師なし単語アライメントのためのニューラルモデルの検討と評価を行った。
我々は、IBM-1と隠れマルコフモデルのニューラルバージョンが、個々のモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2020-09-28T07:51:03Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。