論文の概要: Learning Dynamic Contextualised Word Embeddings via Template-based
Temporal Adaptation
- arxiv url: http://arxiv.org/abs/2208.10734v3
- Date: Wed, 14 Jun 2023 02:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 03:55:49.739440
- Title: Learning Dynamic Contextualised Word Embeddings via Template-based
Temporal Adaptation
- Title(参考訳): テンプレートに基づく時間適応による動的文脈化単語埋め込みの学習
- Authors: Xiaohang Tang, Yi Zhou, Danushka Bollegala
- Abstract要約: 動的文脈化された単語埋め込み(WEs)は単語の時間的意味変化を表す。
本稿では,事前学習したマスケッド言語モデル(MLM)を時間依存テンプレートを用いて時間適応させることでDCWEを学習する手法を提案する。
- 参考スコア(独自算出の注目度): 20.28057385992209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic contextualised word embeddings (DCWEs) represent the temporal
semantic variations of words. We propose a method for learning DCWEs by
time-adapting a pretrained Masked Language Model (MLM) using time-sensitive
templates. Given two snapshots $C_1$ and $C_2$ of a corpus taken respectively
at two distinct timestamps $T_1$ and $T_2$, we first propose an unsupervised
method to select (a) \emph{pivot} terms related to both $C_1$ and $C_2$, and
(b) \emph{anchor} terms that are associated with a specific pivot term in each
individual snapshot. We then generate prompts by filling manually compiled
templates using the extracted pivot and anchor terms. Moreover, we propose an
automatic method to learn time-sensitive templates from $C_1$ and $C_2$,
without requiring any human supervision. Next, we use the generated prompts to
adapt a pretrained MLM to $T_2$ by fine-tuning using those prompts. Multiple
experiments show that our proposed method reduces the perplexity of test
sentences in $C_2$, outperforming the current state-of-the-art.
- Abstract(参考訳): dynamic contextized word embeddeds (dcwes) は、単語の時間的意味変化を表す。
本稿では,事前学習されたマスク言語モデル(mlm)の時間適応化によるdcwes学習法を提案する。
2つの異なるタイムスタンプ $t_1$ と $t_2$ でそれぞれ取られたコーパスの2つのスナップショット $c_1$ と $c_2$ を考えると、まずは教師なしの方法を提案する。
(a)$c_1$ と $c_2$ のどちらも関連する用語と、
(b)個々のスナップショットの特定のピボット項に関連付けられたemph{anchor}用語。
次に、抽出されたピボットとアンカーを使って手動でコンパイルされたテンプレートを埋めてプロンプトを生成します。
さらに,人間による監督を必要とせず,C_1$とC_2$からタイムセンシティブなテンプレートを自動的に学習する手法を提案する。
次に、生成されたプロンプトを使用して、プリトレーニングされたmlmをこれらのプロンプトを使用して微調整することで$t_2$に適応させる。
複数の実験により, 提案手法はテスト文の難易度を$C_2$で低減し, 現状よりも優れていた。
関連論文リスト
- Mixture of Prompt Learning for Vision Language Models [12.828490399811376]
ルーティングモジュールを組み込んだソフトプロンプト学習手法の混合を提案する。
このモジュールはデータセットのさまざまなスタイルをキャプチャし、インスタンス毎に最も適切なプロンプトを動的に選択することができる。
また、意味的にグループ化されたテキストレベルの監視を実装し、各ソフトプロンプトを、そのグループから手動で設計されたテンプレートのトークン埋め込みで初期化する。
論文 参考訳(メタデータ) (2024-09-18T14:25:02Z) - Optimising Hard Prompts with Few-Shot Meta-Prompting [0.0]
文脈的プロンプトは、文書や対話の形式でコンテキストを含み、Large Language Model (LLM)への自然言語命令も含む。
コンテキストを判断すると、プロンプトのテンプレートとして機能する。
本稿では,既存のプロンプトテンプレートのセットからLCMを用いて,そのコンテキストを明らかにすることなく,より優れたテンプレートを生成するための反復的手法を提案する。
論文 参考訳(メタデータ) (2024-07-09T07:02:57Z) - A General and Flexible Multi-concept Parsing Framework for Multilingual Semantic Matching [60.51839859852572]
我々は,テキストを多言語セマンティックマッチングのためのマルチコンセプトに分解し,NERモデルに依存するモデルからモデルを解放することを提案する。
英語データセットのQQPとMRPC、中国語データセットのMedical-SMについて包括的な実験を行った。
論文 参考訳(メタデータ) (2024-03-05T13:55:16Z) - PromptNER: Prompt Locating and Typing for Named Entity Recognition [39.81221703760443]
本稿では,位置スロットとタイプスロットを備えたデュアルスロットマルチプロンプトテンプレートを設計し,位置決めとタイピングを高速化する。
複数のプロンプトを同時にモデルに入力し、そのモデルがスロット上の並列予測によってすべてのエンティティを抽出する。
実験結果から,提案手法は特にクロスドメイン・ショット・セッティングにおいて,大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-26T17:16:11Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - STPrompt: Semantic-guided and Task-driven prompts for Effective Few-shot
Classification [5.6205035780719275]
本稿ではSTPrompt-Semantic-GuidedおよびTask-driven Promptモデルを提案する。
提案モデルでは,テキスト分類タスクの5つの異なるデータセットにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-29T04:42:30Z) - Reward-Mixing MDPs with a Few Latent Contexts are Learnable [75.17357040707347]
報酬混合マルコフ決定過程(RMMDP)におけるエピソード強化学習の検討
我々のゴールは、そのようなモデルにおける時間段階の累積報酬をほぼ最大化する、ほぼ最適に近いポリシーを学ぶことである。
論文 参考訳(メタデータ) (2022-10-05T22:52:00Z) - Automatic Label Sequence Generation for Prompting Sequence-to-sequence
Models [105.4590533269863]
完全自動プロンプト方式であるAutoSeqを提案する。
我々はシーケンス・ツー・シーケンス・モデルに自然言語プロンプトを採用する。
本手法は,数ショット学習におけるシーケンス・ツー・シーケンスモデルの可能性を明らかにする。
論文 参考訳(メタデータ) (2022-09-20T01:35:04Z) - Template-free Prompt Tuning for Few-shot NER [46.59447116255979]
テンプレートを使わずにNERタスクをLM問題として再構成するよりエレガントな手法を提案する。
具体的には,事前学習モデルの単語予測パラダイムを維持しながらテンプレート構築プロセスを捨てる。
実験により, バート・タガー法およびテンプレートベース法に対して, 数ショット設定で提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-09-28T07:19:24Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。