論文の概要: SimSCOOD: Systematic Analysis of Out-of-Distribution Generalization in
Fine-tuned Source Code Models
- arxiv url: http://arxiv.org/abs/2210.04802v2
- Date: Mon, 30 Oct 2023 14:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 04:31:44.537469
- Title: SimSCOOD: Systematic Analysis of Out-of-Distribution Generalization in
Fine-tuned Source Code Models
- Title(参考訳): SimSCOOD:微調整ソースコードモデルにおける分布外一般化の体系的解析
- Authors: Hossein Hajipour, Ning Yu, Cristian-Alexandru Staicu, Mario Fritz
- Abstract要約: 本研究は,Low-Rank Adaptation (LoRA)ファインチューニング手法を含む,異なる微調整手法によるモデルの挙動について検討する。
解析の結果、LoRAファインチューニングは様々なシナリオにおけるフルファインチューニングよりも、OODの一般化性能が大幅に向上していることが判明した。
- 参考スコア(独自算出の注目度): 58.78043959556283
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large code datasets have become increasingly accessible for pre-training
source code models. However, for the fine-tuning phase, obtaining
representative training data that fully covers the code distribution for
specific downstream tasks remains challenging due to the task-specific nature
and limited labeling resources. Moreover, fine-tuning pretrained models can
result in forgetting previously acquired pre-training knowledge. These lead to
out-of-distribution (OOD) generalization issues with unexpected model inference
behaviors that have not been systematically studied yet. In this paper, we
contribute the first systematic approach that simulates various OOD scenarios
along different dimensions of source code data properties and study the
fine-tuned model behaviors in such scenarios. We investigate the behaviors of
models under different fine-tuning methodologies, including full fine-tuning
and Low-Rank Adaptation (LoRA) fine-tuning methods. Our comprehensive analysis,
conducted on four state-of-the-art pretrained models and applied to two code
generation tasks, exposes multiple failure modes attributed to OOD
generalization issues. Additionally, our analysis uncovers that LoRA
fine-tuning consistently exhibits significantly better OOD generalization
performance than full fine-tuning across various scenarios.
- Abstract(参考訳): ソースコードモデルの事前トレーニングには、大規模なコードデータセットがアクセスしやすくなっている。
しかしながら、微調整フェーズでは、特定の下流タスクのコード分布を完全にカバーする代表的なトレーニングデータを得ることは、タスク固有の性質と限定的なラベル付けリソースのため、依然として困難である。
さらに、事前学習モデルの微調整は、事前に獲得した事前学習知識を忘れることになる。
これらは、まだ体系的に研究されていない予期せぬモデル推論行動による分散(ood)一般化問題につながる。
本稿では、ソースコードデータ特性の異なる次元に沿って様々なOODシナリオをシミュレートする最初の体系的アプローチを提案し、それらのシナリオにおける微調整モデル挙動について検討する。
完全微調整法とローランド適応法(LoRA)微調整法を含む,異なる微調整法下でのモデルの挙動について検討する。
最先端の4つの事前学習モデル上で実施し,2つのコード生成タスクに適用した総合的な解析を行い,ood一般化問題に起因する複数の障害モードを明らかにした。
さらに分析の結果,LoRAファインチューニングは様々なシナリオにおける全ファインチューニングよりも,OODの一般化性能が大幅に向上していることが判明した。
関連論文リスト
- Feature Protection For Out-of-distribution Generalization [24.072876186625855]
事前訓練された特徴の保護は、より厳密に調整されたモデルが一般化に結びつくことを示す。
事前訓練された特徴の保護は,OODの一般化に対してより堅牢な微調整モデルをもたらすことを示す。
論文 参考訳(メタデータ) (2024-05-25T03:00:06Z) - LEVI: Generalizable Fine-tuning via Layer-wise Ensemble of Different Views [28.081794908107604]
ファインチューニングは、新しい下流タスクで事前訓練された基礎モデルのパワーを活用するために使用される。
近年の研究では、微調整されたモデルから目に見えない分布への一般化の課題が観察されている。
そこで本研究では,タスク固有モデルを用いて,事前学習したモデルを階層的に適応的に組み立てる,一般化可能なファインチューニング手法LEVIを提案する。
論文 参考訳(メタデータ) (2024-02-07T08:16:40Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - BEDS-Bench: Behavior of EHR-models under Distributional Shift--A
Benchmark [21.040754460129854]
OOD設定下でのEHRデータ上でのMLモデルの振る舞いを定量化するベンチマークであるBEDS-Benchをリリースする。
BEDS-Bench の学習アルゴリズムを複数評価した結果,一般に分布シフト下での一般化性能の低下が判明した。
論文 参考訳(メタデータ) (2021-07-17T05:53:24Z) - Training Deep Normalizing Flow Models in Highly Incomplete Data
Scenarios with Prior Regularization [13.985534521589257]
ハイパウシティシナリオにおけるデータ分布の学習を容易にする新しいフレームワークを提案する。
提案手法は,不完全データから学習過程を協調最適化タスクとして行うことに由来する。
論文 参考訳(メタデータ) (2021-04-03T20:57:57Z) - Trajectory-wise Multiple Choice Learning for Dynamics Generalization in
Reinforcement Learning [137.39196753245105]
本稿では,動的一般化のためのマルチヘッドダイナミックスモデルを学習するモデルベース強化学習アルゴリズムを提案する。
文脈学習は,過去の経験から得られる動的情報からコンテキスト潜在ベクトルにエンコードする。
提案手法は,最先端のRL法と比較して,様々な制御タスクにおいて優れたゼロショット一般化性能を示す。
論文 参考訳(メタデータ) (2020-10-26T03:20:42Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。