論文の概要: Bridging Pre-trained Models and Downstream Tasks for Source Code
Understanding
- arxiv url: http://arxiv.org/abs/2112.02268v1
- Date: Sat, 4 Dec 2021 07:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 08:22:08.033340
- Title: Bridging Pre-trained Models and Downstream Tasks for Source Code
Understanding
- Title(参考訳): ソースコード理解のための事前学習モデルと下流タスクのブリッジ
- Authors: Deze Wang, Zhouyang Jia, Shanshan Li, Yue Yu, Yun Xiong, Wei Dong,
Xiangke Liao
- Abstract要約: 本稿では,事前学習されたモデルとコード関連タスクをブリッジする手法を提案する。
我々は、下流データの多様性を豊かにする意味保存変換を利用する。
本稿では,既存の事前学習モデルを微調整するために,変換されたデータを手軽に整理するためのカリキュラム学習を紹介する。
- 参考スコア(独自算出の注目度): 13.65914588243695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the great success of pre-trained models, the pretrain-then-finetune
paradigm has been widely adopted on downstream tasks for source code
understanding. However, compared to costly training a large-scale model from
scratch, how to effectively adapt pre-trained models to a new task has not been
fully explored. In this paper, we propose an approach to bridge pre-trained
models and code-related tasks. We exploit semantic-preserving transformation to
enrich downstream data diversity, and help pre-trained models learn semantic
features invariant to these semantically equivalent transformations. Further,
we introduce curriculum learning to organize the transformed data in an
easy-to-hard manner to fine-tune existing pre-trained models.
We apply our approach to a range of pre-trained models, and they
significantly outperform the state-of-the-art models on tasks for source code
understanding, such as algorithm classification, code clone detection, and code
search. Our experiments even show that without heavy pre-training on code data,
natural language pre-trained model RoBERTa fine-tuned with our lightweight
approach could outperform or rival existing code pre-trained models fine-tuned
on the above tasks, such as CodeBERT and GraphCodeBERT. This finding suggests
that there is still much room for improvement in code pre-trained models.
- Abstract(参考訳): 事前訓練モデルの成功により、ソースコード理解のための下流タスクにおいて、プレトレイン-then-finetuneパラダイムが広く採用されている。
しかし、スクラッチから大規模モデルをコスト的に訓練するのに対し、事前訓練されたモデルを新しいタスクに効果的に適応する方法は、まだ完全には検討されていない。
本稿では,事前学習モデルとコード関連タスクを橋渡しする手法を提案する。
セマンティクス保存変換を利用して下流データ多様性を豊かにし、これらのセマンティクスに等価な変換に不変なセマンティクス特徴を事前学習したモデルを支援する。
さらに,既存の事前学習モデルの微調整を容易かつ困難に行うために,カリキュラム学習を導入する。
我々は本手法を様々な事前学習モデルに適用し,アルゴリズム分類やコードクローン検出,コード検索など,ソースコード理解タスクにおける最先端モデルを大幅に上回っている。
私たちの実験では、コードデータに十分な事前トレーニングがなければ、自然言語事前トレーニングモデルrobertaが、既存のコード事前トレーニングモデル、例えばcodebertやgraphcodebertよりも優れています。
この発見は、コード事前訓練モデルの改善の余地がまだたくさんあることを示唆している。
関連論文リスト
- Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - StochCA: A Novel Approach for Exploiting Pretrained Models with Cross-Attention [2.66269503676104]
トランスフォーマーアーキテクチャに特有なクロスアテンション(StochCA)と呼ばれる新しい微調整手法を提案する。
この方法はトランスフォーマーの自己保持機構を変更し、微調整中に事前学習したモデルからの知識を選択的に活用する。
両領域の最先端アプローチに対するStochCAの優位性について検討した。
論文 参考訳(メタデータ) (2024-02-25T13:53:49Z) - Towards Efficient Fine-tuning of Pre-trained Code Models: An
Experimental Study and Beyond [52.656743602538825]
微調整された事前訓練されたコードモデルは、大きな計算コストを発生させる。
我々は、レイヤーワイドで事前訓練された表現と、微調整中に符号化されたコード知識に何が起こるのかを実験的に検討する。
本稿では,レイヤ凍結により事前学習したコードモデルを効率的に微調整するTellyを提案する。
論文 参考訳(メタデータ) (2023-04-11T13:34:13Z) - TRAK: Attributing Model Behavior at Scale [79.56020040993947]
本稿では,大規模な微分モデルに対して有効かつ計算的に抽出可能なデータ属性法であるTRAK(Tracing with Randomly-trained After Kernel)を提案する。
論文 参考訳(メタデータ) (2023-03-24T17:56:22Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Revisiting the Updates of a Pre-trained Model for Few-shot Learning [11.871523410051527]
我々は2つの人気のある更新手法、微調整と線形探索を比較した。
試料数の増加に伴い, 微調整は線形探索より優れていることがわかった。
論文 参考訳(メタデータ) (2022-05-13T08:47:06Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z) - bert2BERT: Towards Reusable Pretrained Language Models [51.078081486422896]
本稿では,既存のより小さな事前学習モデルの知識を大規模モデルに効果的に伝達できるbert2BERTを提案する。
bert2BERTは、ほぼ半分の大きさのモデルを再利用することで、BERT_BASEとGPT_BASEの事前トレーニングに約45%と47%の計算コストを節約する。
論文 参考訳(メタデータ) (2021-10-14T04:05:25Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。