論文の概要: SymNoise: Advancing Language Model Fine-tuning with Symmetric Noise
- arxiv url: http://arxiv.org/abs/2312.01523v2
- Date: Fri, 8 Dec 2023 17:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 17:54:56.375848
- Title: SymNoise: Advancing Language Model Fine-tuning with Symmetric Noise
- Title(参考訳): Symnoise: 対称雑音による言語モデルの微調整
- Authors: Abhay Kumar Yadav, Arjun Singh
- Abstract要約: 埋め込みプロセスに対称雑音を組み込む言語モデルのための新しい微調整手法を提案する。
本手法は,局所曲率をより厳密に制御し,現行手法NEFTuneよりも優れた性能を示すことにより,モデルの機能を向上することを目的としている。
- 参考スコア(独自算出の注目度): 1.8399030634592846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a novel fine-tuning technique for language
models, which involves incorporating symmetric noise into the embedding
process. This method aims to enhance the model's function by more stringently
regulating its local curvature, demonstrating superior performance over the
current method, NEFTune. When fine-tuning the LLaMA-2-7B model using Alpaca,
standard techniques yield a 29.79% score on AlpacaEval. However, our approach,
SymNoise, increases this score significantly to 69.04%, using symmetric noisy
embeddings. This is a 6.7% improvement over the state-of-the-art method,
NEFTune~(64.69%). Furthermore, when tested on various models and stronger
baseline instruction datasets, such as Evol-Instruct, ShareGPT, OpenPlatypus,
SymNoise consistently outperforms NEFTune. The current literature, including
NEFTune, has underscored the importance of more in-depth research into the
application of noise-based strategies in the fine-tuning of language models.
Our approach, SymNoise, is another significant step towards this direction,
showing notable improvement over the existing state-of-the-art method.
- Abstract(参考訳): 本稿では,埋め込みプロセスに対称雑音を組み込む言語モデルのための新しい微調整手法を提案する。
本手法は,局所曲率をより厳密に制御し,現行手法NEFTuneよりも優れた性能を示すことにより,モデルの機能を向上することを目的とする。
アルパカを用いてLLaMA-2-7Bモデルを微調整すると、標準技術は29.79%のスコアをAlpacaEvalで得る。
しかし、我々のアプローチであるSymNoiseは、対称雑音埋め込みを用いて、このスコアを69.04%に向上させた。
これは最先端の方法であるneftune~(64.69%)よりも6.7%改善されている。
さらに、さまざまなモデルや、Evol-Instruct、ShareGPT、OpenPlatypusといったより強力なベースライン命令データセットでテストする場合、SymNoiseはNEFTuneを一貫して上回る。
neftuneを含む現在の文献は、言語モデルの微調整におけるノイズベースの戦略の適用に関するより深い研究の重要性を強調している。
われわれのアプローチであるSymNoiseは、この方向に向けた重要なステップであり、既存の最先端手法に対する顕著な改善を示している。
関連論文リスト
- Bayesian Inference of General Noise Model Parameters from Surface Code's Syndrome Statistics [0.0]
表面符号のテンソルネットワークシミュレータを統合する一般雑音モデルベイズ推論法を提案する。
雑音パラメータが一定であり変化しない定常雑音に対しては,マルコフ連鎖モンテカルロに基づく手法を提案する。
より現実的な状況である時間変化ノイズに対しては、シーケンシャルなモンテカルロに基づく別の手法を導入する。
論文 参考訳(メタデータ) (2024-06-13T10:26:04Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Contrastive Learning in Distilled Models [0.0]
我々は,知識蒸留に基づくモデルである DistilBERT に適応したモデルアーキテクチャに対して,SimCSE 論文に基づく適切なコントラスト学習手法を提案する。
最後の軽量モデルであるDistilFaceは、STSタスクにおけるSpearmanの相関で平均72.1に達し、BERTベースよりも34.2%改善した。
論文 参考訳(メタデータ) (2024-01-23T03:47:07Z) - NEFTune: Noisy Embeddings Improve Instruction Finetuning [113.34098028348946]
NEFTuneは、トレーニング中に埋め込みベクターにノイズを追加する。
Evol-Instructでトレーニングされたモデルは10%改善され、ShareGPTは8%改善され、OpenPlatypusは8%改善された。
論文 参考訳(メタデータ) (2023-10-09T17:58:34Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Fully Adaptive Bayesian Algorithm for Data Analysis, FABADA [0.0]
本稿では,ベイズ推定の観点から,新しい非パラメトリック雑音低減手法について述べる。
データのスムーズなバージョン、スムーズなモデルを繰り返し評価し、基礎となる信号の推定値を得る。
繰り返しは、最後の滑らかなモデルの証拠と$chi2$統計に基づいて停止し、信号の期待値を計算する。
論文 参考訳(メタデータ) (2022-01-13T18:54:31Z) - Noise Stability Regularization for Improving BERT Fine-tuning [94.80511419444723]
BERTのような微調整済みの言語モデルは、様々なNLPタスクにまたがるリーダーボードを支配する一般的なプラクティスとなっている。
レイヤワイドノイズ安定正規化(LNSR)と呼ばれる,NLPタスクの微調整を改善するための,新しい効果的な正規化手法を提案する。
良好な性能を示すモデルが雑音に対する感度が低く、LNSRによる微調整は明らかに高い一般化性と安定性を示すことを実験的に確認した。
論文 参考訳(メタデータ) (2021-07-10T13:19:04Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。