論文の概要: Deep Continuous Prompt for Contrastive Learning of Sentence Embeddings
- arxiv url: http://arxiv.org/abs/2203.06875v1
- Date: Mon, 14 Mar 2022 06:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:48:01.137656
- Title: Deep Continuous Prompt for Contrastive Learning of Sentence Embeddings
- Title(参考訳): 文埋め込みのコントラスト学習のための深部連続プロンプト
- Authors: Yuxin Jiang and Wei Wang
- Abstract要約: 本稿では,言語モデル全体を凍結し,プレフィックスの深い連続的なプロンプトのみを最適化する新しい手法を提案する。
元の言語モデルの約0.1%のパラメータをチューニングするだけでなく、手作りのプロンプトを検索する面倒な計算を避ける。
提案したDCPCSEは最先端のSimCSEよりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 8.70715711885114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of sentence representation has been remarkably improved by
the framework of contrastive learning. However, recent works still require full
fine-tuning, which is quite inefficient for large-scaled pre-trained language
models. To this end, we present a novel method which freezes the whole language
model and only optimizes the prefix deep continuous prompts. It not only tunes
around 0.1% parameters of the original language model, but avoids the
cumbersome computation of searching handcrafted prompts. Experimental results
show that our proposed DCPCSE outperforms the state-of-the-art method SimCSE by
a large margin. We raise the performance of unsupervised BERT$_{base}$ and
supervised RoBERTa$_{large}$ by 2.24 and 1.00 points, respectively. Our code is
publicly avaliable at https://github.com/YJiangcm/DCPCSE
- Abstract(参考訳): 文表現の性能はコントラスト学習の枠組みによって著しく改善されている。
しかし、最近の研究はまだ完全な微調整を必要としており、大規模な事前訓練された言語モデルでは極めて非効率である。
そこで本研究では,言語モデル全体を凍結し,プレフィックスの深い連続的プロンプトのみを最適化する新しい手法を提案する。
オリジナルの言語モデルの約0.1%のパラメータをチューニングするだけでなく、手作りのプロンプトを検索する面倒な計算を避ける。
実験の結果,提案したDCPCSEは最先端のSimCSEよりも大きなマージンで優れていた。
我々は教師なしのbert$_{base}$と教師なしroberta$_{large}$の2.24ポイントと1.00ポイントのパフォーマンスを上げる。
私たちのコードはhttps://github.com/YJiangcm/DCPCSEで公開されています。
関連論文リスト
- Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - CTC-based Non-autoregressive Speech Translation [51.37920141751813]
非自己回帰音声翻訳における接続性時間分類の可能性について検討する。
我々は、CTCによって誘導される2つのエンコーダからなるモデルを構築し、ソースおよびターゲットテキストを予測する。
MuST-Cベンチマークの実験では、我々のNASTモデルは平均BLEUスコアが29.5であり、スピードアップは5.67$times$である。
論文 参考訳(メタデータ) (2023-05-27T03:54:09Z) - Alleviating Over-smoothing for Unsupervised Sentence Representation [96.19497378628594]
本稿では,この問題を緩和するために,SSCL(Self-Contrastive Learning)というシンプルな手法を提案する。
提案手法は非常に単純で,様々な最先端モデルに拡張して,性能向上を図ることができる。
論文 参考訳(メタデータ) (2023-05-09T11:00:02Z) - Efficient and Flexible Topic Modeling using Pretrained Embeddings and
Bag of Sentences [1.8592384822257952]
本稿では,新しいトピックモデリングと推論アルゴリズムを提案する。
我々は,生成過程モデルとクラスタリングを組み合わせることで,事前学習文の埋め込みを活用する。
The Tailor の評価は,本手法が比較的少ない計算要求で最先端の成果をもたらすことを示している。
論文 参考訳(メタデータ) (2023-02-06T20:13:11Z) - EPIC TTS Models: Empirical Pruning Investigations Characterizing
Text-To-Speech Models [26.462819114575172]
この研究は、音声合成における空間的パラダイムを比較する。
音声合成における空間的パラダイムを比較する最初の作品である。
論文 参考訳(メタデータ) (2022-09-22T09:47:25Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Prompt Consistency for Zero-Shot Task Generalization [118.81196556175797]
本稿では,ラベルのないデータを用いてゼロショット性能を向上させる手法について検討する。
具体的には,複数のプロンプトを使ってひとつのタスクを指定できることを利用して,プロンプトの一貫性を規則化する手法を提案する。
我々のアプローチは、4つのNLPタスクにまたがる11のデータセットのうち9つにおいて、最先端のゼロショット学習者であるT0を精度で最大10.6の絶対点で上回ります。
論文 参考訳(メタデータ) (2022-04-29T19:18:37Z) - Contrastive Demonstration Tuning for Pre-trained Language Models [59.90340768724675]
デモの例は、プロンプトチューニングの優れた最終パフォーマンスに不可欠である。
提案手法は次の通りである: (i) 従来の急速学習アプローチにプラグイン; (ii) 多数のカテゴリを持つ広範囲な分類タスクに拡張。
16のデータセットに対する実験結果から,従来のLM-BFFとP-tuningを統合した手法により,性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-09T05:30:48Z) - Compressing Sentence Representation for Semantic Retrieval via
Homomorphic Projective Distillation [28.432799973328127]
圧縮文の埋め込みを学習するために,同相射影蒸留法(HPD)を提案する。
提案手法は,小さなトランスフォーマーエンコーダモデルを学習可能なプロジェクション層で拡張し,コンパクトな表現を生成する。
論文 参考訳(メタデータ) (2022-03-15T07:05:43Z) - Efficient Constituency Parsing by Pointing [21.395573911155495]
本稿では,解析問題を一連のポインティングタスクにキャストする新しい選挙区解析モデルを提案する。
我々のモデルは効率的なトップダウンデコーディングをサポートしており、我々の学習目的は、高価なCKY推論に頼ることなく、構造的一貫性を強制することができる。
論文 参考訳(メタデータ) (2020-06-24T08:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。