論文の概要: Typhoon: Towards an Effective Task-Specific Masking Strategy for
Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2303.15619v1
- Date: Mon, 27 Mar 2023 22:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 17:08:32.655375
- Title: Typhoon: Towards an Effective Task-Specific Masking Strategy for
Pre-trained Language Models
- Title(参考訳): 台風:事前訓練された言語モデルのための効果的なタスク特化マスキング戦略を目指して
- Authors: Muhammed Shahir Abdurrahman, Hashem Elezabi, Bruce Changlong Xu
- Abstract要約: 本稿では,事前学習された大規模言語モデルのためのタスク固有マスキングフレームワークについて検討する。
我々はトークン入力勾配に基づく独自のマスキングアルゴリズムであるTyphoonを開発し、これを他の標準ベースラインと比較する。
私たちの実装は、公開のGithubリポジトリで確認できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Through exploiting a high level of parallelism enabled by graphics processing
units, transformer architectures have enabled tremendous strides forward in the
field of natural language processing. In a traditional masked language model,
special MASK tokens are used to prompt our model to gather contextual
information from surrounding words to restore originally hidden information. In
this paper, we explore a task-specific masking framework for pre-trained large
language models that enables superior performance on particular downstream
tasks on the datasets in the GLUE benchmark. We develop our own masking
algorithm, Typhoon, based on token input gradients, and compare this with other
standard baselines. We find that Typhoon offers performance competitive with
whole-word masking on the MRPC dataset. Our implementation can be found in a
public Github Repository.
- Abstract(参考訳): グラフィックス処理ユニットによって実現された高いレベルの並列性を活用することで、トランスフォーマーアーキテクチャは自然言語処理の分野で大きな進歩を遂げた。
従来のマスク付き言語モデルでは、特別なMASKトークンを使用して、周囲の単語からコンテキスト情報を収集し、元の隠れた情報を復元する。
本稿では,GLUEベンチマークのデータセット上の特定の下流タスクにおいて,優れたパフォーマンスを実現するための,事前訓練済みの大規模言語モデルのためのタスク固有マスキングフレームワークについて検討する。
我々はトークン入力勾配に基づく独自のマスキングアルゴリズムであるTyphoonを開発し、これを他の標準ベースラインと比較する。
台風はmpcデータセット上で全単語マスキングと競合するパフォーマンスを提供する。
私たちの実装は、公開のGithubリポジトリで確認できます。
関連論文リスト
- MaskInversion: Localized Embeddings via Optimization of Explainability Maps [49.50785637749757]
MaskInversionは、テスト時にマスクによって指定されたクエリ画像領域に対するコンテキスト認識の埋め込みを生成する。
オープン語彙のクラス検索、表現理解の参照、局所的なキャプションや画像生成など、幅広いタスクに使用することができる。
論文 参考訳(メタデータ) (2024-07-29T14:21:07Z) - ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Recovering from Privacy-Preserving Masking with Large Language Models [14.828717714653779]
マスク付きトークンの代わりに大きな言語モデル(LLM)を提案する。
難読化コーパスでトレーニングしたモデルが,元のデータでトレーニングしたモデルと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-09-12T16:39:41Z) - Investigating Masking-based Data Generation in Language Models [0.0]
BERTと類似したアーキテクチャを持つモデルの特徴は、マスキング言語モデリングの目的である。
データ拡張は、機械学習で広く使われているデータ駆動技術である。
最近の研究は、NLP下流タスクのための人工的な拡張データを生成するためにマスク付き言語モデルを利用している。
論文 参考訳(メタデータ) (2023-06-16T16:48:27Z) - Retrieval Oriented Masking Pre-training Language Model for Dense Passage
Retrieval [16.592276887533714]
Masked Language Modeling (MLM) は、事前学習プロセスの主要なサブタスクである。
従来のランダムマスキング戦略は、パス検索タスクに制限のある多数のトークンを選択する傾向にある。
本稿では,より重要なトークンがマスクアウトされる確率の高い検索指向マスキング(ROM)戦略を提案する。
論文 参考訳(メタデータ) (2022-10-27T02:43:48Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Neural Mask Generator: Learning to Generate Adaptive Word Maskings for
Language Model Adaptation [63.195935452646815]
本稿では,自己教師付き事前学習のためのテキストのドメイン適応マスキングとタスク適応マスキングを自動生成する手法を提案する。
本稿では,マスキング政策を学習する新しい強化学習フレームワークを提案する。
我々はいくつかの質問応答とテキスト分類データセットに基づいてニューラルマスク生成器(NMG)を検証する。
論文 参考訳(メタデータ) (2020-10-06T13:27:01Z) - Masking as an Efficient Alternative to Finetuning for Pretrained
Language Models [49.64561153284428]
我々は、微調整によって修正する代わりに、事前訓練された重量に対する選択的な二乗マスクを学習する。
内在的評価では、マスキング言語モデルによって計算された表現が、下流タスクの解決に必要な情報を符号化していることを示す。
論文 参考訳(メタデータ) (2020-04-26T15:03:47Z) - UniLMv2: Pseudo-Masked Language Models for Unified Language Model
Pre-Training [152.63467944568094]
本稿では,自動エンコーディングと部分的自己回帰型言語モデリングタスクの両方に対して,統一言語モデルを事前学習することを提案する。
実験の結果,PMLMを用いて事前学習した統一言語モデルは,多種多様な自然言語理解・生成タスクにおいて,新たな最先端の成果が得られることがわかった。
論文 参考訳(メタデータ) (2020-02-28T15:28:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。