論文の概要: Where exactly does contextualization in a PLM happen?
- arxiv url: http://arxiv.org/abs/2312.06514v1
- Date: Mon, 11 Dec 2023 16:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:54:07.415601
- Title: Where exactly does contextualization in a PLM happen?
- Title(参考訳): PLMのコンテキスト化はどこで起こるのか?
- Authors: Soniya Vijayakumar, Tanja B\"aumel, Simon Ostermann and Josef van
Genabith
- Abstract要約: 本研究では, PLM単語の文脈化の正確な位置をローカライズすることを目的とした研究を提案する。
この単語の意味の場所を見つけるために,BERT未使用12層構造における多文単語の表現について検討する。
- 参考スコア(独自算出の注目度): 12.610445666406898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained Language Models (PLMs) have shown to be consistently successful
in a plethora of NLP tasks due to their ability to learn contextualized
representations of words (Ethayarajh, 2019). BERT (Devlin et al., 2018), ELMo
(Peters et al., 2018) and other PLMs encode word meaning via textual context,
as opposed to static word embeddings, which encode all meanings of a word in a
single vector representation. In this work, we present a study that aims to
localize where exactly in a PLM word contextualization happens. In order to
find the location of this word meaning transformation, we investigate
representations of polysemous words in the basic BERT uncased 12 layer
architecture (Devlin et al., 2018), a masked language model trained on an
additional sentence adjacency objective, using qualitative and quantitative
measures.
- Abstract(参考訳): 事前訓練された言語モデル(PLM)は、単語の文脈化された表現を学習する能力のため、多くのNLPタスクにおいて一貫して成功している(Ethayarajh, 2019)。
bert (devlin et al., 2018)、elmo (peters et al., 2018)、その他のplmは、単一のベクトル表現で単語のすべての意味をエンコードする静的単語埋め込みとは対照的に、テキスト的な文脈で単語の意味をエンコードする。
本稿では,plm単語の文脈化の正確な場所を局所化することを目的とした研究を行う。
この単語の意味変換の場所を見つけるために, 定性的, 定量的な尺度を用いて, 追加の文隣接目標に基づいて訓練されたマスク付き言語モデルである, BERT未解決12層アーキテクチャ(Devlin et al., 2018)の多文語表現について検討する。
関連論文リスト
- Tomato, Tomahto, Tomate: Measuring the Role of Shared Semantics among Subwords in Multilingual Language Models [88.07940818022468]
エンコーダのみの多言語言語モデル(mLM)におけるサブワード間の共有セマンティクスの役割を測る第一歩を踏み出した。
意味的に類似したサブワードとその埋め込みをマージして「意味トークン」を形成する。
グループ化されたサブワードの検査では 様々な意味的類似性を示します
論文 参考訳(メタデータ) (2024-11-07T08:38:32Z) - Probing Context Localization of Polysemous Words in Pre-trained Language Model Sub-Layers [12.610445666406898]
プレトレーニング言語モデル(PLM)の細粒度サブレイヤ表現に符号化された文脈化の程度について検討する。
文脈化へのサブレイヤの主な貢献を識別するために、まず、最小限の異なる文対における多文単語のサブレイヤ表現を抽出する。
また,これらのサブレイヤ表現に符号化された文脈化情報の強みを実証的にローカライズする。
論文 参考訳(メタデータ) (2024-09-21T10:42:07Z) - Fantastic Semantics and Where to Find Them: Investigating Which Layers of Generative LLMs Reflect Lexical Semantics [50.982315553104975]
本稿では,Llama2という人気言語モデルに対する語彙意味論のボトムアップ進化について検討する。
実験の結果,下位層の表現は語彙的意味論を符号化しているが,上位層はより弱い意味帰納的帰納的帰納的帰納的帰納的帰納的帰納的帰属的帰属的帰属的帰属的存在であることがわかった。
これは、高層層がより良い語彙意味論を得るマスク言語モデリングのような差別的な目的を持つモデルとは対照的である。
論文 参考訳(メタデータ) (2024-03-03T13:14:47Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - Character, Word, or Both? Revisiting the Segmentation Granularity for
Chinese Pre-trained Language Models [42.75756994523378]
文字と単語の両方を考慮した混合粒度中国語 BERT (MigBERT) を提案する。
提案するMigBERTだけでなく,既存のPLMを評価するために,中国における様々なNLPタスクについて広範な実験を行った。
MigBERTは、これらすべてのタスクで新しいSOTAパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-03-20T06:20:03Z) - Between words and characters: A Brief History of Open-Vocabulary
Modeling and Tokenization in NLP [22.772546707304766]
単語と文字のハイブリッドなアプローチと,学習セグメンテーションに基づくサブワードベースのアプローチが提案され,評価されていることを示す。
すべてのアプリケーションに対して銀の弾丸特異解が存在することはあり得ない。
論文 参考訳(メタデータ) (2021-12-20T13:04:18Z) - More Than Words: Collocation Tokenization for Latent Dirichlet
Allocation Models [71.42030830910227]
モデルが異なる環境でクラスタリングの品質を測定するための新しい指標を提案する。
マージトークンでトレーニングされたトピックは、マージされていないモデルよりも、より明確で、一貫性があり、トピックを区別する効果が高いトピックキーをもたらすことを示す。
論文 参考訳(メタデータ) (2021-08-24T14:08:19Z) - Probing Pretrained Language Models for Lexical Semantics [76.73599166020307]
類型的多様言語と5つの異なる語彙課題にまたがる系統的経験分析を行った。
我々の結果は、普遍的に維持されるパターンとベストプラクティスを示しているが、言語やタスクにまたがる顕著なバリエーションを示している。
論文 参考訳(メタデータ) (2020-10-12T14:24:01Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - Quantifying the Contextualization of Word Representations with Semantic
Class Probing [8.401007663676214]
事前訓練された言語モデルは、多くのNLPタスクにおいて、新しい最先端技術を実現している。
単語のセマンティッククラスが文脈化された埋め込みから推測できる範囲を研究することにより、文脈化の量、すなわち、単語が文脈内でどのように解釈されるかの定量化を行う。
論文 参考訳(メタデータ) (2020-04-25T17:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。