論文の概要: Word class flexibility: A deep contextualized approach
- arxiv url: http://arxiv.org/abs/2009.09241v1
- Date: Sat, 19 Sep 2020 14:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 21:19:19.448088
- Title: Word class flexibility: A deep contextualized approach
- Title(参考訳): 単語クラスの柔軟性:深い文脈化アプローチ
- Authors: Bai Li, Guillaume Thomas, Yang Xu, Frank Rudzicz
- Abstract要約: 単語クラス柔軟性の規則性を探求する原理的手法を提案する。
文脈的埋め込みは、英語の単語におけるクラス変化の人間の判断を捉える。
フレキシブルなレムマが支配的な単語クラスで使用される場合、より意味的なバリエーションがより大きくなる。
- 参考スコア(独自算出の注目度): 18.50173460090958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Word class flexibility refers to the phenomenon whereby a single word form is
used across different grammatical categories. Extensive work in linguistic
typology has sought to characterize word class flexibility across languages,
but quantifying this phenomenon accurately and at scale has been fraught with
difficulties. We propose a principled methodology to explore regularity in word
class flexibility. Our method builds on recent work in contextualized word
embeddings to quantify semantic shift between word classes (e.g., noun-to-verb,
verb-to-noun), and we apply this method to 37 languages. We find that
contextualized embeddings not only capture human judgment of class variation
within words in English, but also uncover shared tendencies in class
flexibility across languages. Specifically, we find greater semantic variation
when flexible lemmas are used in their dominant word class, supporting the view
that word class flexibility is a directional process. Our work highlights the
utility of deep contextualized models in linguistic typology.
- Abstract(参考訳): 単語クラスの柔軟性は、異なる文法カテゴリーで単一の単語形式が使用される現象を指す。
言語型学における広範な研究は、言語間での単語クラスの柔軟性を特徴付けようと試みてきたが、この現象を正確にかつ大規模に定量化することは難しかった。
単語クラス柔軟性の規則性を探求する原理的手法を提案する。
本手法は,単語間の意味的シフト(名詞-動詞,動詞-名詞など)を定量的に定量化するための文脈型単語埋め込みにおける最近の研究に基づいており,本手法を37言語に適用する。
文脈的埋め込みは、英語の単語におけるクラス変動の人間の判断を捉えるだけでなく、言語間でのクラス柔軟性の共有傾向を明らかにする。
具体的には, フレキシブル・レムマが支配的な単語・クラスで使用される場合, 単語・クラス・フレキシビリティが方向性のプロセスであるという観点から, より意味的な変化が生じる。
本研究は,言語型学における深層文脈モデルの有用性を強調した。
関連論文リスト
- DADA: Dialect Adaptation via Dynamic Aggregation of Linguistic Rules [64.93179829965072]
DADAは、多言語対応のSAE訓練モデルに対するモジュラーアプローチである。
DADAは単一タスクと命令言語モデルの両方に有効であることを示す。
論文 参考訳(メタデータ) (2023-05-22T18:43:31Z) - A Comprehensive Empirical Evaluation of Existing Word Embedding
Approaches [5.065947993017158]
既存の単語埋め込み手法の特徴を概説し,多くの分類タスクについて解析する。
伝統的なアプローチでは、主に単語表現を生成するために行列分解を使い、言語の意味的および構文的規則性をうまく捉えることができない。
一方、ニューラルネットワークに基づくアプローチは、言語の洗練された規則性を捕捉し、生成した単語表現における単語関係を保存することができる。
論文 参考訳(メタデータ) (2023-03-13T15:34:19Z) - CCPrefix: Counterfactual Contrastive Prefix-Tuning for Many-Class
Classification [57.62886091828512]
多クラス分類のための新しいプレフィックスチューニング手法であるCCPrefixを提案する。
基本的に、ラベル空間における実数対から派生したインスタンス依存の軟式接頭辞は、多クラス分類における言語動詞化を補完するために利用される。
論文 参考訳(メタデータ) (2022-11-11T03:45:59Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Fake it Till You Make it: Self-Supervised Semantic Shifts for
Monolingual Word Embedding Tasks [58.87961226278285]
語彙意味変化をモデル化するための自己教師付きアプローチを提案する。
本手法は,任意のアライメント法を用いて意味変化の検出に利用できることを示す。
3つの異なるデータセットに対する実験結果を用いて,本手法の有用性について述べる。
論文 参考訳(メタデータ) (2021-01-30T18:59:43Z) - Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT [7.057643880514415]
MBERT(Multilingual BERT)が文法をエンコードするには,複数言語の埋め込み空間にまたがるモルフォシンタクティックアライメントの高次文法的特徴がどのように現れるかを検討する。
論文 参考訳(メタデータ) (2021-01-26T19:21:59Z) - Dynamic Contextualized Word Embeddings [20.81930455526026]
言語的文脈と外言語的文脈の両方の関数として単語を表す動的文脈化単語埋め込みを導入する。
事前訓練された言語モデル(PLM)に基づいて、動的文脈化された単語埋め込みは、時間と社会空間を協調的にモデル化する。
4つの英語データセットの質的および定量的分析により,潜在的な応用シナリオを強調した。
論文 参考訳(メタデータ) (2020-10-23T22:02:40Z) - A Neural Generative Model for Joint Learning Topics and Topic-Specific
Word Embeddings [42.87769996249732]
共同学習トピックとトピック固有の単語埋め込みのための局所的・グローバル的文脈を探索する新しい生成モデルを提案する。
訓練されたモデルは、単語を話題に依存した埋め込みにマッピングする。
論文 参考訳(メタデータ) (2020-08-11T13:54:11Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z) - Comparative Analysis of Word Embeddings for Capturing Word Similarities [0.0]
分散言語表現は、様々な自然言語処理タスクにおいて、言語表現において最も広く使われている技術となっている。
ディープラーニング技術に基づく自然言語処理モデルのほとんどは、単語埋め込みと呼ばれる、すでに訓練済みの分散単語表現を使用している。
適切な単語の埋め込みを選択することは 複雑な作業です なぜなら、投影された埋め込み空間は 人間にとって直感的ではないからです
論文 参考訳(メタデータ) (2020-05-08T01:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。