論文の概要: Knowledge of Pretrained Language Models on Surface Information of Tokens
- arxiv url: http://arxiv.org/abs/2402.09808v2
- Date: Thu, 22 Feb 2024 15:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 17:42:20.364558
- Title: Knowledge of Pretrained Language Models on Surface Information of Tokens
- Title(参考訳): トークンの表層情報に基づく事前学習言語モデルの知識
- Authors: Tatsuya Hiraoka, Naoaki Okazaki
- Abstract要約: 主に英語と日本語のコーパスに基づいて訓練された12の事前学習言語モデルに着目した。
実験の結果,事前学習された言語モデルにはトークン長に関する知識があるが,トークン構成は存在しないことがわかった。
その結果,取得した知識を効果的に活用する上で,デコーダ側にボトルネックがあることが示唆された。
- 参考スコア(独自算出の注目度): 33.28611433675186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Do pretrained language models have knowledge regarding the surface
information of tokens? We examined the surface information stored in word or
subword embeddings acquired by pretrained language models from the perspectives
of token length, substrings, and token constitution. Additionally, we evaluated
the ability of models to generate knowledge regarding token surfaces. We
focused on 12 pretrained language models that were mainly trained on English
and Japanese corpora. Experimental results demonstrate that pretrained language
models have knowledge regarding token length and substrings but not token
constitution. Additionally, the results imply that there is a bottleneck on the
decoder side in terms of effectively utilizing acquired knowledge.
- Abstract(参考訳): 事前訓練された言語モデルはトークンの表面情報に関する知識を持っているか?
事前学習言語モデルにより得られた単語やサブワードの埋め込みに格納された表面情報を,トークン長,サブストリング,トークン構成の観点から検討した。
さらに,トークン表面に関する知識を生成できるモデルの性能評価を行った。
英語と日本語のコーパスを主に訓練した12の事前学習言語モデルに注目した。
実験の結果,事前学習された言語モデルにはトークン長とサブ文字列に関する知識があるが,トークン構成は持たないことがわかった。
さらに,得られた知識を効果的に活用するという観点から,デコーダ側にボトルネックが存在することを示唆する。
関連論文リスト
- Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - What do Large Language Models Learn beyond Language? [10.9650651784511]
事前学習モデルは、非事前学習ニューラルモデルに匹敵する性能を著しく上回っていることがわかった。
実験により、多言語テキストやコンピュータコードで事前学習しても、事前学習の効果が持続することが明らかとなった。
その結果,言語モデルの事前学習能力と帰納学習能力との間には,未解明の深い関係があることが示唆された。
論文 参考訳(メタデータ) (2022-10-21T23:43:13Z) - Language Contamination Explains the Cross-lingual Capabilities of
English Pretrained Models [79.38278330678965]
一般的な英語事前学習コーパスには、かなりの量の非英語テキストが含まれていることが判明した。
これにより、大規模なデータセットで数十億の外国語トークンが生成される。
そして、これらの少数の非英語データでさえ、それらに基づいて訓練されたモデルの言語間移動を促進することを実証する。
論文 参考訳(メタデータ) (2022-04-17T23:56:54Z) - Models In a Spelling Bee: Language Models Implicitly Learn the Character
Composition of Tokens [22.55706811131828]
事前訓練された言語モデルの埋め込み層を探索する。
モデルが単語全体とサブワードトークンの内部文字構成を学習することを示す。
論文 参考訳(メタデータ) (2021-08-25T11:48:05Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - Do Language Embeddings Capture Scales? [54.1633257459927]
事前学習された言語モデルは、オブジェクトのスカラーサイズに関するかなりの量の情報を取得することを示す。
我々は,事前学習と数理化における文脈情報を,その性能に影響を及ぼす2つの重要な要因として認識する。
論文 参考訳(メタデータ) (2020-10-11T21:11:09Z) - Pretrained Language Model Embryology: The Birth of ALBERT [68.5801642674541]
ランダムなパラメータの集合からトチエント言語モデルへの発達過程について検討する。
その結果、ALBERTは、事前学習中に異なる学習速度で、音声の異なる部分(POS)のトークンを再構成し、予測することを学習していることがわかった。
これらの結果は、事前訓練されたモデルの知識が事前訓練の間に異なることを示唆し、事前訓練のステップを持つことは、必ずしもより包括的な知識を持つモデルを提供するとは限らないことを示唆している。
論文 参考訳(メタデータ) (2020-10-06T05:15:39Z) - Learning Spoken Language Representations with Neural Lattice Language
Modeling [39.50831917042577]
本稿では,音声言語理解タスクのための文脈表現を提供するために,ニューラルネットワーク言語モデルを訓練するフレームワークを提案する。
提案する2段階事前学習手法は,音声データの要求を低減し,効率を向上する。
論文 参考訳(メタデータ) (2020-07-06T10:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。