論文の概要: Learning the Ordering of Coordinate Compounds and Elaborate Expressions
in Hmong, Lahu, and Chinese
- arxiv url: http://arxiv.org/abs/2204.04080v1
- Date: Fri, 8 Apr 2022 13:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 12:38:50.978226
- Title: Learning the Ordering of Coordinate Compounds and Elaborate Expressions
in Hmong, Lahu, and Chinese
- Title(参考訳): Hmong, Lahu, Chineseにおける協調化合物の順序付けと協調表現の学習
- Authors: Chenxuan Cui, Katherine J. Zhang, David R. Mortensen
- Abstract要約: Mortensen (2006) は、Hmong, Lahu, ChineseにおけるEEとCCの線形順序付けは音韻的階層によって予測できると主張している。
決定木とSVMは、音韻学に基づいてCC/EEの順序を予測する。
また、ニューラルシークエンスラベリングモデルでは、音韻情報を用いることなく、Hmongの精巧な表現の順序付けを効果的に学べることがわかった。
- 参考スコア(独自算出の注目度): 2.796722951193138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coordinate compounds (CCs) and elaborate expressions (EEs) are coordinate
constructions common in languages of East and Southeast Asia. Mortensen (2006)
claims that (1) the linear ordering of EEs and CCs in Hmong, Lahu, and Chinese
can be predicted via phonological hierarchies and (2) these phonological
hierarchies lack a clear phonetic rationale. These claims are significant
because morphosyntax has often been seen as in a feed-forward relationship with
phonology, and phonological generalizations have often been assumed to be
phonetically "natural". We investigate whether the ordering of CCs and EEs can
be learned empirically and whether computational models (classifiers and
sequence labeling models) learn unnatural hierarchies similar to those posited
by Mortensen (2006). We find that decision trees and SVMs learn to predict the
order of CCs/EEs on the basis of phonology, with DTs learning hierarchies
strikingly similar to those proposed by Mortensen. However, we also find that a
neural sequence labeling model is able to learn the ordering of elaborate
expressions in Hmong very effectively without using any phonological
information. We argue that EE ordering can be learned through two independent
routes: phonology and lexical distribution, presenting a more nuanced picture
than previous work. [ISO 639-3:hmn, lhu, cmn]
- Abstract(参考訳): 座標化合物 (ccs) と精巧な表現 (ees) は、東アジアや東南アジアの言語で一般的な座標構成である。
Mortensen (2006) は、(1)Hmong, Lahu, Chinese におけるEE と CC の線形順序付けは音韻的階層によって予測でき、(2)これらの音韻的階層は明確な音韻論的論理を欠いていると主張している。
これらの主張は、モルフォシンタクスは、しばしば音韻学とフィードフォワードの関係にあると見なされ、音韻論的一般化はしばしば音声学的に「自然」であると仮定された。
CCとEEの順序付けが実証的に学べるかどうか、計算モデル(分類器とシーケンスラベル付けモデル)がモーテンセン(2006)と類似した非自然的階層を学習できるかを検討する。
決定木とsvmは音韻学に基づいてccs/eeの順序を予測し、dtsはmortensenが提案したものと非常に類似した階層を学習する。
しかし,ニューラルシーケンスラベリングモデルでは,音韻情報を用いずに,ハンセンの精巧な表現の順序を極めて効果的に学習できることがわかった。
脳の順序付けは、音韻学と語彙分布という2つの独立した経路を通して学べると我々は主張する。
[ISO 639-3:hmn, lhu, cmn]
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Surprise! Uniform Information Density Isn't the Whole Story: Predicting Surprisal Contours in Long-form Discourse [54.08750245737734]
話者は、階層的に構造化された談話モデル内の位置に基づいて、情報率を変調する。
階層的予測器は談話の情報輪郭の重要な予測器であり,深い階層的予測器は浅い予測器よりも予測力が高いことがわかった。
論文 参考訳(メタデータ) (2024-10-21T14:42:37Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Modeling Human Sentence Processing with Left-Corner Recurrent Neural
Network Grammars [10.232142358698605]
計算言語学では、階層構造が言語モデル(LM)をより人間らしくすることが示された。
本稿では,階層構造がLMをより人間らしくするかどうかを考察し,その場合,どの解析戦略が最も認知的に妥当かを検討した。
論文 参考訳(メタデータ) (2021-09-10T15:35:00Z) - Do Acoustic Word Embeddings Capture Phonological Similarity? An
Empirical Study [12.210797811981173]
本稿では,音響埋め込み空間内の距離が音韻的相似性と相関しているかを問う。
我々は、AWEモデルを2つの言語(ドイツ語とチェコ語)の制御設定で訓練し、単語識別と音韻的類似性という2つのタスクへの埋め込みを評価する。
実験の結果,(1)ベストケースにおける埋め込み空間内の距離は音韻的距離と適度に相関すること,(2)単語識別タスクの性能向上が必ずしも単語の音韻的類似性を反映したモデルを生成するとは限らないことがわかった。
論文 参考訳(メタデータ) (2021-06-16T10:47:56Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Differentiable Generative Phonology [47.709731661281]
我々は,音声生成システムをニューラルモデルとして実装する。
従来の音韻学とは異なり、我々のモデルではufは離散文字列ではなく$mathbbrd$の連続ベクトルである。
5言語と28言語をカバーする2つのデータセットにおいて,各モードが有意な音韻弦を推定する能力を評価する。
論文 参考訳(メタデータ) (2021-02-10T19:50:16Z) - Deciphering Undersegmented Ancient Scripts Using Phonetic Prior [31.707254394215283]
ほとんどの未解読失語言語は、重要な解読課題を引き起こす2つの特徴を持っている。
豊かな言語制約を基礎として,これらの課題に対処するモデルを提案する。
我々は、解読された言語(ゴシック語、ウガル語)と未解読言語(イベリア語)の両方でモデルを評価する。
論文 参考訳(メタデータ) (2020-10-21T15:03:52Z) - Constructing a Family Tree of Ten Indo-European Languages with
Delexicalized Cross-linguistic Transfer Patterns [57.86480614673034]
我々は,デレクシカル化転送を,解釈可能なツリー・ツー・ストリングパターンとツリー・ツー・ツリーパターンとして定式化する。
これにより、言語間移動を定量的に探索し、第二言語習得の問い合わせを拡張することができる。
論文 参考訳(メタデータ) (2020-07-17T15:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。