論文の概要: EALink: An Efficient and Accurate Pre-trained Framework for Issue-Commit
Link Recovery
- arxiv url: http://arxiv.org/abs/2308.10759v1
- Date: Mon, 21 Aug 2023 14:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 13:17:19.466057
- Title: EALink: An Efficient and Accurate Pre-trained Framework for Issue-Commit
Link Recovery
- Title(参考訳): EALink:イシューコミットリンクリカバリのための効率的で正確な事前トレーニングフレームワーク
- Authors: Chenyuan Zhang, Yanlin Wang, Zhao Wei, Yong Xu, Juhong Wang, Hui Li
and Rongrong Ji
- Abstract要約: 本稿では,イシュー・コミット・リンク・リカバリのためのEALinkという,効率的かつ正確な事前学習フレームワークを提案する。
大規模なデータセットを構築し、EALinkのパワーを実証するための広範な実験を行う。
その結果、EALinkは様々な評価指標において、最先端の手法よりも大きなマージン(15.23%-408.65%)優れていることがわかった。
- 参考スコア(独自算出の注目度): 54.34661595290837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Issue-commit links, as a type of software traceability links, play a vital
role in various software development and maintenance tasks. However, they are
typically deficient, as developers often forget or fail to create tags when
making commits. Existing studies have deployed deep learning techniques,
including pretrained models, to improve automatic issue-commit link
recovery.Despite their promising performance, we argue that previous approaches
have four main problems, hindering them from recovering links in large software
projects. To overcome these problems, we propose an efficient and accurate
pre-trained framework called EALink for issue-commit link recovery. EALink
requires much fewer model parameters than existing pre-trained methods,
bringing efficient training and recovery. Moreover, we design various
techniques to improve the recovery accuracy of EALink. We construct a
large-scale dataset and conduct extensive experiments to demonstrate the power
of EALink. Results show that EALink outperforms the state-of-the-art methods by
a large margin (15.23%-408.65%) on various evaluation metrics. Meanwhile, its
training and inference overhead is orders of magnitude lower than existing
methods.
- Abstract(参考訳): ソフトウェアトレーサビリティリンクの一種であるイシューコミットリンクは、様々なソフトウェア開発やメンテナンスタスクにおいて重要な役割を果たす。
しかし、それらは一般的に不足しており、開発者はコミットするときにしばしばタグを忘れたり、失敗したりする。
既存の研究では,自動イシューコミットリンクリカバリを改善するために,事前トレーニングされたモデルを含むディープラーニング技術を導入している。その有望な性能にもかかわらず,これまでのアプローチには4つの大きな問題があり,大規模ソフトウェアプロジェクトのリンクリカバリを妨げている。
これらの問題を解決するために, EALinkという, 効率的かつ正確な事前学習フレームワークを提案する。
ealinkは、既存のトレーニング済みメソッドよりもはるかに少ないモデルパラメータを必要とし、効率的なトレーニングとリカバリをもたらす。
さらに,EALinkの回復精度を向上させるため,様々な手法を設計する。
大規模データセットを構築し,ealinkのパワーを実証するための広範な実験を行う。
その結果、ealinkは様々な評価基準で最先端の手法を(15.23%-408.65%)上回っていることがわかった。
一方、トレーニングと推論のオーバーヘッドは、既存のメソッドよりも桁違いに低い。
関連論文リスト
- Model Merging and Safety Alignment: One Bad Model Spoils the Bunch [70.614652904151]
LLM(Merging Large Language Models)は、複数の専門家のLLMを1つの汎用モデルに結合するコスト効率のよい手法である。
現在のアプローチでは、マージ時の安全性の整合性の重要性を見落とし、非常に不整合のモデルに繋がることが多い。
我々は,既存の手法がドメインの専門知識を伝達するだけでなく,ミスアライメントを伝播することを示すために,いくつかの一般的なモデルマージ手法を評価した。
論文 参考訳(メタデータ) (2024-06-20T17:59:58Z) - Efficient Degradation-aware Any Image Restoration [83.92870105933679]
我々は,低ランク体制下での学習者(DaLe)を用いた効率的なオールインワン画像復元システムである textitDaAIR を提案する。
モデルキャパシティを入力劣化に動的に割り当てることにより、総合学習と特定の学習を統合した効率的な復調器を実現する。
論文 参考訳(メタデータ) (2024-05-24T11:53:27Z) - FREE: Faster and Better Data-Free Meta-Learning [77.90126669914324]
Data-Free Meta-Learning (DFML) は、トレーニング済みモデルのコレクションから、元のデータを必要としない知識を抽出することを目的としている。
i)事前訓練されたモデルからトレーニングタスクを迅速に回復するためのメタジェネレータ,(ii)新しい未知のタスクに一般化するためのメタラーナーを含む、より高速で優れたデータフリーなメタラーニングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-05-02T03:43:19Z) - MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers [140.0479479231558]
本研究では,様々な事前学習タスクをマルチタスク事前学習モデル(MASTER)に統合することを目的とする。
MASTERは共有エンコーダのマルチデコーダアーキテクチャを利用して、タスク全体にわたる豊富なセマンティック情報を高密度ベクトルに圧縮する表現ボトルネックを構築することができる。
論文 参考訳(メタデータ) (2022-12-15T13:57:07Z) - An Empirical Study on Data Leakage and Generalizability of Link
Prediction Models for Issues and Commits [7.061740334417124]
LinkFormerは既存の予測の精度を保存し、改善する。
実世界のシナリオを効果的にシミュレートするためには、研究者はデータの時間的流れを維持する必要がある。
論文 参考訳(メタデータ) (2022-11-01T10:54:26Z) - FastRE: Towards Fast Relation Extraction with Convolutional Encoder and
Improved Cascade Binary Tagging Framework [13.4666880421568]
本稿では,畳み込みエンコーダと改良されたカスケードバイナリタグフレームワークに基づく高速関係抽出モデル(FastRE)を提案する。
FastREは、最先端モデルと比較して3~10倍のトレーニング速度、7~15倍の推論速度、1/100のパラメータを実現している。
論文 参考訳(メタデータ) (2022-05-05T07:59:51Z) - Automated Recovery of Issue-Commit Links Leveraging Both Textual and
Non-textual Data [2.578242050187029]
自動コミット-イシューリンクに対する最先端のアプローチは、精度の低下に悩まされ、信頼性の低い結果に繋がる。
本稿では,2つの情報チャネルを活用することで,このような制限を克服するハイブリッドリンクを提案する。
我々は、競合するアプローチであるFRLinkとDeepLinkに対して、12のプロジェクトのデータセットでHybrid-Linkerを評価した。
論文 参考訳(メタデータ) (2021-07-05T09:38:44Z) - Learning to Perturb Word Embeddings for Out-of-distribution QA [55.103586220757464]
本論文では,入力問題と文脈の単語埋め込みを意味論を変化させることなく学習するノイズ発生器に基づく簡便かつ効果的なDA法を提案する。
ひとつのソースデータセットに,5つの異なるターゲットドメインに埋め込むことで,トレーニングされたQAモデルのパフォーマンスを検証する。
特に、私たちのトレーニングを受けたモデルは、240K以上の人工的なQAペアでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T14:12:26Z) - FedAT: A High-Performance and Communication-Efficient Federated Learning
System with Asynchronous Tiers [22.59875034596411]
非i.d.データに基づく非同期タイアを用いた新しいフェデレーション学習手法であるFederated Learning法であるFedATを提案する。
FedATは、収束速度とテスト精度を改善したストラグラー効果を最小化する。
その結果、FedATは予測性能を最大21.09%改善し、最先端FL法と比較して通信コストを最大8.5倍削減した。
論文 参考訳(メタデータ) (2020-10-12T18:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。