論文の概要: MPLinker: Multi-template Prompt-tuning with Adversarial Training for Issue-commit Link Recovery
- arxiv url: http://arxiv.org/abs/2501.19026v1
- Date: Fri, 31 Jan 2025 10:51:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:02:59.155643
- Title: MPLinker: Multi-template Prompt-tuning with Adversarial Training for Issue-commit Link Recovery
- Title(参考訳): MPLinker: 課題-コミットリンクリカバリのための逆トレーニングによるマルチテンプレートプロンプトチューニング
- Authors: Bangchao Wang, Yang Deng, Ruiqi Luo, Peng Liang, Tingting Bi,
- Abstract要約: ソフトウェアトレーサビリティ(ST)におけるイシュー・コミット・リンク・リカバリ(ILR)は、ソフトウェアシステムの信頼性、品質、セキュリティを改善する上で重要な役割を果たす。
現在のIRR法は、プレトレーニング言語モデル(PLM)と専用ニューラルネットワークを用いて、ILRを分類タスクに変換する。
MPLinkerは、テンプレートベースのプロンプトチューニングを通じてIRRタスクをクローズタスクとして再定義し、モデル一般化を強化し、オーバーフィッティングを減らすために、逆行訓練を取り入れている。
- 参考スコア(独自算出の注目度): 9.005932745392395
- License:
- Abstract: In recent years, the pre-training, prompting and prediction paradigm, known as prompt-tuning, has achieved significant success in Natural Language Processing (NLP). Issue-commit Link Recovery (ILR) in Software Traceability (ST) plays an important role in improving the reliability, quality, and security of software systems. The current ILR methods convert the ILR into a classification task using pre-trained language models (PLMs) and dedicated neural networks. these methods do not fully utilize the semantic information embedded in PLMs, resulting in not achieving acceptable performance. To address this limitation, we introduce a novel paradigm: Multi-template Prompt-tuning with adversarial training for issue-commit Link recovery (MPLinker). MPLinker redefines the ILR task as a cloze task via template-based prompt-tuning and incorporates adversarial training to enhance model generalization and reduce overfitting. We evaluated MPLinker on six open-source projects using a comprehensive set of performance metrics. The experiment results demonstrate that MPLinker achieves an average F1-score of 96.10%, Precision of 96.49%, Recall of 95.92%, MCC of 94.04%, AUC of 96.05%, and ACC of 98.15%, significantly outperforming existing state-of-the-art methods. Overall, MPLinker improves the performance and generalization of ILR models, and introduces innovative concepts and methods for ILR. The replication package for MPLinker is available at https://github.com/WTU-intelligent-software-development/MPLinker
- Abstract(参考訳): 近年, 自然言語処理(NLP)において, 事前学習, プロンプト, 予測のパラダイムであるプロンプトチューニングが大きな成功を収めている。
ソフトウェアトレーサビリティ(ST)におけるイシュー・コミット・リンク・リカバリ(ILR)は、ソフトウェアシステムの信頼性、品質、セキュリティを改善する上で重要な役割を果たす。
現在のIRR法は、プレトレーニング言語モデル(PLM)と専用ニューラルネットワークを用いて、ILRを分類タスクに変換する。
これらの手法は、PLMに埋め込まれた意味情報を十分に利用していないため、許容できる性能は得られない。
この制限に対処するために,課題コミットリンクリカバリ(MPLinker)のための逆トレーニング付きマルチテンプレート・プロンプトチューニング(Multi-template Prompt-tuning)という,新しいパラダイムを導入する。
MPLinkerは、テンプレートベースのプロンプトチューニングを通じてIRRタスクをクローズタスクとして再定義し、モデル一般化を強化し、オーバーフィッティングを減らすために、逆行訓練を取り入れている。
包括的なパフォーマンス指標を用いて,MPLinkerを6つのオープンソースプロジェクトで評価した。
実験の結果、MPLinkerは平均F1スコア96.10%、精度96.49%、リコール95.92%、MCC94.04%、AUC96.05%、ACC98.15%を達成した。
全体として、MPLinkerはILRモデルの性能と一般化を改善し、ILRの革新的な概念と手法を導入している。
MPLinkerのレプリケーションパッケージはhttps://github.com/WTU-intelligent-software-development/MPLinkerで入手できる。
関連論文リスト
- Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Superposition Prompting: Improving and Accelerating Retrieval-Augmented Generation [22.124234811959532]
大きな言語モデル(LLM)は、長いコンテキストを処理する際に大きな欠点を示す。
本稿では,事前学習したトランスフォーマーベースLLMに直接適用可能な新しいRAGプロンプト手法を提案する。
我々は,様々な質問応答ベンチマークにおいて,時間効率を同時に向上する手法の能力を実証する。
論文 参考訳(メタデータ) (2024-04-10T11:03:17Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - EALink: An Efficient and Accurate Pre-trained Framework for Issue-Commit
Link Recovery [54.34661595290837]
本稿では,イシュー・コミット・リンク・リカバリのためのEALinkという,効率的かつ正確な事前学習フレームワークを提案する。
大規模なデータセットを構築し、EALinkのパワーを実証するための広範な実験を行う。
その結果、EALinkは様々な評価指標において、最先端の手法よりも大きなマージン(15.23%-408.65%)優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-21T14:46:43Z) - KECP: Knowledge Enhanced Contrastive Prompting for Few-shot Extractive
Question Answering [28.18555591429343]
我々はKECP(Knowledge Enhanced Contrastive Prompt-tuning)という新しいフレームワークを提案する。
PLMにポインタヘッドを追加する代わりに、タスクを非自己回帰型マスケッド言語モデリング(MLM)生成問題に変換する。
提案手法は,数ショット設定における最先端のアプローチを大きなマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2022-05-06T08:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。