論文の概要: No More Fine-Tuning? An Experimental Evaluation of Prompt Tuning in Code
Intelligence
- arxiv url: http://arxiv.org/abs/2207.11680v1
- Date: Sun, 24 Jul 2022 07:29:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:30:38.890548
- Title: No More Fine-Tuning? An Experimental Evaluation of Prompt Tuning in Code
Intelligence
- Title(参考訳): ファインチューニングはなし?
コードインテリジェンスにおけるプロンプトチューニングの実験的評価
- Authors: Chaozheng Wang, Yuanhang Yang, Cuiyun Gao, Yun Peng, Hongyu Zhang,
Michael R. Lyu
- Abstract要約: 本稿では,コードインテリジェンスタスクにおける即時チューニングの使用と効果を実証的に評価する。
本結果から,3つのタスクの微調整性能は,逐次チューニングが連続的に向上していることが示唆された。
我々の結果は、微調整の代わりに、コードインテリジェンスタスクの迅速なチューニングに適応して、より良いパフォーマンスを実現することができることを示唆している。
- 参考スコア(独自算出の注目度): 33.438384268490815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained models have been shown effective in many code intelligence tasks.
These models are pre-trained on large-scale unlabeled corpus and then
fine-tuned in downstream tasks. However, as the inputs to pre-training and
downstream tasks are in different forms, it is hard to fully explore the
knowledge of pre-trained models. Besides, the performance of fine-tuning
strongly relies on the amount of downstream data, while in practice, the
scenarios with scarce data are common. Recent studies in the natural language
processing (NLP) field show that prompt tuning, a new paradigm for tuning,
alleviates the above issues and achieves promising results in various NLP
tasks. In prompt tuning, the prompts inserted during tuning provide
task-specific knowledge, which is especially beneficial for tasks with
relatively scarce data. In this paper, we empirically evaluate the usage and
effect of prompt tuning in code intelligence tasks. We conduct prompt tuning on
popular pre-trained models CodeBERT and CodeT5 and experiment with three code
intelligence tasks including defect prediction, code summarization, and code
translation. Our experimental results show that prompt tuning consistently
outperforms fine-tuning in all three tasks. In addition, prompt tuning shows
great potential in low-resource scenarios, e.g., improving the BLEU scores of
fine-tuning by more than 26\% on average for code summarization. Our results
suggest that instead of fine-tuning, we could adapt prompt tuning for code
intelligence tasks to achieve better performance, especially when lacking
task-specific data.
- Abstract(参考訳): 事前訓練されたモデルは、多くのコードインテリジェンスタスクで有効であることが示されている。
これらのモデルは大規模未ラベルコーパスで事前訓練され、下流タスクで微調整される。
しかしながら、事前学習やダウンストリームタスクへの入力は異なる形式にあるため、事前学習されたモデルの知識を十分に探求することは困難である。
加えて、微調整の性能は下流データの量に強く依存するが、実際には少ないデータを持つシナリオは一般的である。
自然言語処理(NLP)分野における最近の研究は、新しいチューニングパラダイムであるプロンプトチューニングが上記の問題を緩和し、様々なNLPタスクにおいて有望な結果をもたらすことを示している。
即時チューニングでは、チューニング中に挿入されるプロンプトはタスク固有の知識を提供するが、これは比較的少ないデータを持つタスクにとって特に有益である。
本稿では,コードインテリジェンスタスクにおける即時チューニングの使用と効果を実証的に評価する。
我々は、一般的な事前学習モデルであるcodebertとcodet5の迅速なチューニングを行い、欠陥予測、コード要約、コード翻訳という3つのコードインテリジェンスタスクを実験します。
実験の結果, 即時チューニングは3つのタスクすべてにおいて微調整よりも優れていた。
さらに、プロンプトチューニングは、例えばコード要約のための平均26倍以上の微調整のBLEUスコアを改善するなど、低リソースシナリオにおいて大きなポテンシャルを示す。
我々の結果は、微調整の代わりに、コードインテリジェンスタスクの即時チューニングに適応して、特にタスク固有のデータがない場合に、より良いパフォーマンスを実現することを示唆している。
関連論文リスト
- Revisiting the Power of Prompt for Visual Tuning [50.11465784194896]
本研究では,プロンプトとパッチトークンの相互関係について検討した。
プロンプトトークンはパッチトークンと高い相互情報を共有する傾向にあるという観測から着想を得て,下流トークンのプロトタイプを用いた初期化プロンプトを提案する。
本手法は, 自己指導型プレトレーニングの適応性を著しく向上させ, 少なくとも10%から30%のタスク性能向上を実現した。
論文 参考訳(メタデータ) (2024-02-04T07:49:02Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Towards Efficient Fine-tuning of Pre-trained Code Models: An
Experimental Study and Beyond [52.656743602538825]
微調整された事前訓練されたコードモデルは、大きな計算コストを発生させる。
我々は、レイヤーワイドで事前訓練された表現と、微調整中に符号化されたコード知識に何が起こるのかを実験的に検討する。
本稿では,レイヤ凍結により事前学習したコードモデルを効率的に微調整するTellyを提案する。
論文 参考訳(メタデータ) (2023-04-11T13:34:13Z) - KnowDA: All-in-One Knowledge Mixture Model for Data Augmentation in
Few-Shot NLP [68.43279384561352]
既存のデータ拡張アルゴリズムはタスク非依存のルールや微調整の汎用事前訓練言語モデルを利用する。
これらの手法は、簡単なタスク固有の知識を持ち、単純なタスクにおいて弱いベースラインのための低品質な合成データを得るに限られる。
我々は,様々なNLPタスクを予め学習したエンコーダ/デコーダLMの知識混合データ拡張モデル(KnowDA)を提案する。
論文 参考訳(メタデータ) (2022-06-21T11:34:02Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - Task-guided Disentangled Tuning for Pretrained Language Models [16.429787408467703]
本稿では,事前学習型言語モデル(PLM)のためのタスク誘導型ディスタングル型チューニング(TDT)を提案する。
TDTは、タスク関連信号を絡み合った表現から切り離すことにより、表現の一般化を強化する。
GLUE と CLUE のベンチマークによる実験結果から,TDT は異なる PLM を用いた微調整よりも一貫した結果が得られた。
論文 参考訳(メタデータ) (2022-03-22T03:11:39Z) - Grad2Task: Improved Few-shot Text Classification Using Gradients for
Task Representation [24.488427641442694]
本稿では,数ショットのテキスト分類のための条件付きニューラルプロセスに基づく新しいアプローチを提案する。
私たちのキーとなるアイデアは、ベースモデルからの勾配情報を使って各タスクを表現することです。
我々のアプローチは、従来の微調整、シーケンシャルトランスファーラーニング、そして最先端のメタラーニングアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-01-27T15:29:30Z) - PPT: Pre-trained Prompt Tuning for Few-shot Learning [47.05554619258627]
事前学習された言語モデル(PLM)のプロンプトは、事前学習タスクと様々な下流タスクのギャップを埋めることで、顕著な性能を示している。
これらの手法のうち、PLMを凍結し、ソフトプロンプトのみをチューニングするプロンプトチューニングは、大規模PLMを下流タスクに適用するための効率的かつ効果的なソリューションを提供する。
本研究では,下流データで十分である場合,従来のフルモデルファインチューニングと相容れない性能が得られた。
論文 参考訳(メタデータ) (2021-09-09T15:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。