論文の概要: MPLinker: Multi-template Prompt-tuning with Adversarial Training for Issue-commit Link Recovery
- arxiv url: http://arxiv.org/abs/2501.19026v1
- Date: Fri, 31 Jan 2025 10:51:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 22:46:12.976173
- Title: MPLinker: Multi-template Prompt-tuning with Adversarial Training for Issue-commit Link Recovery
- Title(参考訳): MPLinker: 課題-コミットリンクリカバリのための逆トレーニングによるマルチテンプレートプロンプトチューニング
- Authors: Bangchao Wang, Yang Deng, Ruiqi Luo, Peng Liang, Tingting Bi,
- Abstract要約: ソフトウェアトレーサビリティ(ST)におけるイシュー・コミット・リンク・リカバリ(ILR)は、ソフトウェアシステムの信頼性、品質、セキュリティを改善する上で重要な役割を果たす。
現在のIRR法は、プレトレーニング言語モデル(PLM)と専用ニューラルネットワークを用いて、ILRを分類タスクに変換する。
MPLinkerは、テンプレートベースのプロンプトチューニングを通じてIRRタスクをクローズタスクとして再定義し、モデル一般化を強化し、オーバーフィッティングを減らすために、逆行訓練を取り入れている。
- 参考スコア(独自算出の注目度): 9.005932745392395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the pre-training, prompting and prediction paradigm, known as prompt-tuning, has achieved significant success in Natural Language Processing (NLP). Issue-commit Link Recovery (ILR) in Software Traceability (ST) plays an important role in improving the reliability, quality, and security of software systems. The current ILR methods convert the ILR into a classification task using pre-trained language models (PLMs) and dedicated neural networks. these methods do not fully utilize the semantic information embedded in PLMs, resulting in not achieving acceptable performance. To address this limitation, we introduce a novel paradigm: Multi-template Prompt-tuning with adversarial training for issue-commit Link recovery (MPLinker). MPLinker redefines the ILR task as a cloze task via template-based prompt-tuning and incorporates adversarial training to enhance model generalization and reduce overfitting. We evaluated MPLinker on six open-source projects using a comprehensive set of performance metrics. The experiment results demonstrate that MPLinker achieves an average F1-score of 96.10%, Precision of 96.49%, Recall of 95.92%, MCC of 94.04%, AUC of 96.05%, and ACC of 98.15%, significantly outperforming existing state-of-the-art methods. Overall, MPLinker improves the performance and generalization of ILR models, and introduces innovative concepts and methods for ILR. The replication package for MPLinker is available at https://github.com/WTU-intelligent-software-development/MPLinker
- Abstract(参考訳): 近年, 自然言語処理(NLP)において, 事前学習, プロンプト, 予測のパラダイムであるプロンプトチューニングが大きな成功を収めている。
ソフトウェアトレーサビリティ(ST)におけるイシュー・コミット・リンク・リカバリ(ILR)は、ソフトウェアシステムの信頼性、品質、セキュリティを改善する上で重要な役割を果たす。
現在のIRR法は、プレトレーニング言語モデル(PLM)と専用ニューラルネットワークを用いて、ILRを分類タスクに変換する。
これらの手法は、PLMに埋め込まれた意味情報を十分に利用していないため、許容できる性能は得られない。
この制限に対処するために,課題コミットリンクリカバリ(MPLinker)のための逆トレーニング付きマルチテンプレート・プロンプトチューニング(Multi-template Prompt-tuning)という,新しいパラダイムを導入する。
MPLinkerは、テンプレートベースのプロンプトチューニングを通じてIRRタスクをクローズタスクとして再定義し、モデル一般化を強化し、オーバーフィッティングを減らすために、逆行訓練を取り入れている。
包括的なパフォーマンス指標を用いて,MPLinkerを6つのオープンソースプロジェクトで評価した。
実験の結果、MPLinkerは平均F1スコア96.10%、精度96.49%、リコール95.92%、MCC94.04%、AUC96.05%、ACC98.15%を達成した。
全体として、MPLinkerはILRモデルの性能と一般化を改善し、ILRの革新的な概念と手法を導入している。
MPLinkerのレプリケーションパッケージはhttps://github.com/WTU-intelligent-software-development/MPLinkerで入手できる。
関連論文リスト
- AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Advancing Prompt-Based Methods for Replay-Independent General Continual Learning [44.94466949172424]
一般連続学習(GCL)は、現実世界の連続学習(CL)問題を記述するための幅広い概念である。
このような要求は、初期性能の低下、限定的な一般化可能性、深刻な破滅的な忘れ込みをもたらす。
本稿では,MISA (Mask and Initial Session Adaption) という新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-02T00:58:18Z) - FlexiGPT: Pruning and Extending Large Language Models with Low-Rank Weight Sharing [59.12511498024836]
本稿では,重み付けスコアに基づいてモデルブロックを選択的にプルーする大規模言語モデル(LLM)をプルーする手法を提案する。
重み共有機構を用いて各刈り込みブロックを置換する原理的計量を提案する。
経験的評価は、既存の方法よりも大幅にパフォーマンスが向上したことを示している。
論文 参考訳(メタデータ) (2025-01-24T18:46:37Z) - PromptV: Leveraging LLM-powered Multi-Agent Prompting for High-quality Verilog Generation [9.990225157705966]
本稿では,制約に対処し,コード生成品質を向上させるための,新しいマルチエージェント・プロンプト学習フレームワークを提案する。
マルチエージェントアーキテクチャは、コードエラー訂正機能を改善しつつ、変性リスクを効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2024-12-15T01:58:10Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - LiveMind: Low-latency Large Language Models with Simultaneous Inference [9.795240210326346]
大規模言語モデル(LLM)推論のための新しい低レイテンシ推論フレームワークであるLiveMindを紹介する。
計算処理を入力フェーズに再配置することで、レイテンシを大幅に削減できる。
このフレームワークは、モデルに対するストリーミングインプットの可視性を管理し、不完全なユーザインプットから推論したり、追加コンテンツを待つことができる。
論文 参考訳(メタデータ) (2024-06-20T13:52:30Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - KECP: Knowledge Enhanced Contrastive Prompting for Few-shot Extractive
Question Answering [28.18555591429343]
我々はKECP(Knowledge Enhanced Contrastive Prompt-tuning)という新しいフレームワークを提案する。
PLMにポインタヘッドを追加する代わりに、タスクを非自己回帰型マスケッド言語モデリング(MLM)生成問題に変換する。
提案手法は,数ショット設定における最先端のアプローチを大きなマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2022-05-06T08:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。