論文の概要: Pre-training Universal Language Representation
- arxiv url: http://arxiv.org/abs/2105.14478v1
- Date: Sun, 30 May 2021 09:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:49:11.334929
- Title: Pre-training Universal Language Representation
- Title(参考訳): 事前学習型ユニバーサル言語表現
- Authors: Yian Li, Hai Zhao
- Abstract要約: この研究は普遍言語表現学習、すなわち、一様ベクトル空間に非常に多様な長さを持つ言語単位やテキストの異なるレベルの埋め込みを導入している。
我々は、よく設計された事前学習スキームが、効果的に普遍的な言語表現をもたらすことを実証的に検証する。
- 参考スコア(独自算出の注目度): 46.51685959045527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the well-developed cut-edge representation learning for language,
most language representation models usually focus on specific levels of
linguistic units. This work introduces universal language representation
learning, i.e., embeddings of different levels of linguistic units or text with
quite diverse lengths in a uniform vector space. We propose the training
objective MiSAD that utilizes meaningful n-grams extracted from large unlabeled
corpus by a simple but effective algorithm for pre-trained language models.
Then we empirically verify that well designed pre-training scheme may
effectively yield universal language representation, which will bring great
convenience when handling multiple layers of linguistic objects in a unified
way. Especially, our model achieves the highest accuracy on analogy tasks in
different language levels and significantly improves the performance on
downstream tasks in the GLUE benchmark and a question answering dataset.
- Abstract(参考訳): 言語のための十分に発達したカットエッジ表現学習にもかかわらず、ほとんどの言語表現モデルは言語単位の特定のレベルに焦点を当てている。
この研究は普遍言語表現学習、すなわち、一様ベクトル空間に非常に多様な長さを持つ言語単位やテキストの異なるレベルの埋め込みを導入している。
本研究では,事前学習言語モデルに対する単純かつ効果的なアルゴリズムを用いて,大規模なラベル付きコーパスから抽出した有意義なn-gramを利用する学習目標MISADを提案する。
次に,事前学習方式が普遍的な言語表現を効果的に生み出す可能性があることを実証的に検証し,複数の言語オブジェクトの層を統一的に扱う場合の利便性を明らかにした。
特に,異なる言語レベルでのアナロジータスクの最高精度を達成し,glueベンチマークと質問応答データセットにおけるダウンストリームタスクのパフォーマンスを大幅に向上させる。
関連論文リスト
- Accelerating Multilingual Language Model for Excessively Tokenized Languages [3.5570874721859016]
大型言語モデル(LLM)のトークン化子は、文字やUnicodeレベルのトークンを非ローマ語アルファベットの言語で断片化することが多い。
このような言語でテキスト生成を高速化する,シンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-19T12:26:57Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - BURT: BERT-inspired Universal Representation from Learning Meaningful
Segment [46.51685959045527]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
我々は、異なるレベルの言語単位を同じベクトル空間に符号化する普遍表現モデルburtを提案する。
具体的には,ポイントワイズ相互情報(pmi)に基づいて有意義なセグメントを抽出・マスキングし,異なる粒度目標を事前学習段階に組み込む。
論文 参考訳(メタデータ) (2020-12-28T16:02:28Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z) - Learning Spoken Language Representations with Neural Lattice Language
Modeling [39.50831917042577]
本稿では,音声言語理解タスクのための文脈表現を提供するために,ニューラルネットワーク言語モデルを訓練するフレームワークを提案する。
提案する2段階事前学習手法は,音声データの要求を低減し,効率を向上する。
論文 参考訳(メタデータ) (2020-07-06T10:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。