論文の概要: EALink: An Efficient and Accurate Pre-trained Framework for Issue-Commit
Link Recovery
- arxiv url: http://arxiv.org/abs/2308.10759v1
- Date: Mon, 21 Aug 2023 14:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 13:17:19.466057
- Title: EALink: An Efficient and Accurate Pre-trained Framework for Issue-Commit
Link Recovery
- Title(参考訳): EALink:イシューコミットリンクリカバリのための効率的で正確な事前トレーニングフレームワーク
- Authors: Chenyuan Zhang, Yanlin Wang, Zhao Wei, Yong Xu, Juhong Wang, Hui Li
and Rongrong Ji
- Abstract要約: 本稿では,イシュー・コミット・リンク・リカバリのためのEALinkという,効率的かつ正確な事前学習フレームワークを提案する。
大規模なデータセットを構築し、EALinkのパワーを実証するための広範な実験を行う。
その結果、EALinkは様々な評価指標において、最先端の手法よりも大きなマージン(15.23%-408.65%)優れていることがわかった。
- 参考スコア(独自算出の注目度): 54.34661595290837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Issue-commit links, as a type of software traceability links, play a vital
role in various software development and maintenance tasks. However, they are
typically deficient, as developers often forget or fail to create tags when
making commits. Existing studies have deployed deep learning techniques,
including pretrained models, to improve automatic issue-commit link
recovery.Despite their promising performance, we argue that previous approaches
have four main problems, hindering them from recovering links in large software
projects. To overcome these problems, we propose an efficient and accurate
pre-trained framework called EALink for issue-commit link recovery. EALink
requires much fewer model parameters than existing pre-trained methods,
bringing efficient training and recovery. Moreover, we design various
techniques to improve the recovery accuracy of EALink. We construct a
large-scale dataset and conduct extensive experiments to demonstrate the power
of EALink. Results show that EALink outperforms the state-of-the-art methods by
a large margin (15.23%-408.65%) on various evaluation metrics. Meanwhile, its
training and inference overhead is orders of magnitude lower than existing
methods.
- Abstract(参考訳): ソフトウェアトレーサビリティリンクの一種であるイシューコミットリンクは、様々なソフトウェア開発やメンテナンスタスクにおいて重要な役割を果たす。
しかし、それらは一般的に不足しており、開発者はコミットするときにしばしばタグを忘れたり、失敗したりする。
既存の研究では,自動イシューコミットリンクリカバリを改善するために,事前トレーニングされたモデルを含むディープラーニング技術を導入している。その有望な性能にもかかわらず,これまでのアプローチには4つの大きな問題があり,大規模ソフトウェアプロジェクトのリンクリカバリを妨げている。
これらの問題を解決するために, EALinkという, 効率的かつ正確な事前学習フレームワークを提案する。
ealinkは、既存のトレーニング済みメソッドよりもはるかに少ないモデルパラメータを必要とし、効率的なトレーニングとリカバリをもたらす。
さらに,EALinkの回復精度を向上させるため,様々な手法を設計する。
大規模データセットを構築し,ealinkのパワーを実証するための広範な実験を行う。
その結果、ealinkは様々な評価基準で最先端の手法を(15.23%-408.65%)上回っていることがわかった。
一方、トレーニングと推論のオーバーヘッドは、既存のメソッドよりも桁違いに低い。
関連論文リスト
- MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers [140.0479479231558]
本研究では,様々な事前学習タスクをマルチタスク事前学習モデル(MASTER)に統合することを目的とする。
MASTERは共有エンコーダのマルチデコーダアーキテクチャを利用して、タスク全体にわたる豊富なセマンティック情報を高密度ベクトルに圧縮する表現ボトルネックを構築することができる。
論文 参考訳(メタデータ) (2022-12-15T13:57:07Z) - An Empirical Study on Data Leakage and Generalizability of Link
Prediction Models for Issues and Commits [7.061740334417124]
LinkFormerは既存の予測の精度を保存し、改善する。
実世界のシナリオを効果的にシミュレートするためには、研究者はデータの時間的流れを維持する必要がある。
論文 参考訳(メタデータ) (2022-11-01T10:54:26Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - FastRE: Towards Fast Relation Extraction with Convolutional Encoder and
Improved Cascade Binary Tagging Framework [13.4666880421568]
本稿では,畳み込みエンコーダと改良されたカスケードバイナリタグフレームワークに基づく高速関係抽出モデル(FastRE)を提案する。
FastREは、最先端モデルと比較して3~10倍のトレーニング速度、7~15倍の推論速度、1/100のパラメータを実現している。
論文 参考訳(メタデータ) (2022-05-05T07:59:51Z) - Enhancing the Robustness, Efficiency, and Diversity of Differentiable
Architecture Search [25.112048502327738]
微分可能なアーキテクチャサーチ(DARTS)は、その単純さと効率の大幅な向上により、多くの注目を集めている。
多くの研究は、インジケータや手動設計によるスキップ接続の蓄積を制限しようと試みている。
操作空間からスキップ接続を除去する、より微妙で直接的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T13:25:36Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Automated Recovery of Issue-Commit Links Leveraging Both Textual and
Non-textual Data [2.578242050187029]
自動コミット-イシューリンクに対する最先端のアプローチは、精度の低下に悩まされ、信頼性の低い結果に繋がる。
本稿では,2つの情報チャネルを活用することで,このような制限を克服するハイブリッドリンクを提案する。
我々は、競合するアプローチであるFRLinkとDeepLinkに対して、12のプロジェクトのデータセットでHybrid-Linkerを評価した。
論文 参考訳(メタデータ) (2021-07-05T09:38:44Z) - Learning to Perturb Word Embeddings for Out-of-distribution QA [55.103586220757464]
本論文では,入力問題と文脈の単語埋め込みを意味論を変化させることなく学習するノイズ発生器に基づく簡便かつ効果的なDA法を提案する。
ひとつのソースデータセットに,5つの異なるターゲットドメインに埋め込むことで,トレーニングされたQAモデルのパフォーマンスを検証する。
特に、私たちのトレーニングを受けたモデルは、240K以上の人工的なQAペアでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T14:12:26Z) - FedAT: A High-Performance and Communication-Efficient Federated Learning
System with Asynchronous Tiers [22.59875034596411]
非i.d.データに基づく非同期タイアを用いた新しいフェデレーション学習手法であるFederated Learning法であるFedATを提案する。
FedATは、収束速度とテスト精度を改善したストラグラー効果を最小化する。
その結果、FedATは予測性能を最大21.09%改善し、最先端FL法と比較して通信コストを最大8.5倍削減した。
論文 参考訳(メタデータ) (2020-10-12T18:38:51Z) - CorDEL: A Contrastive Deep Learning Approach for Entity Linkage [70.82533554253335]
エンティティリンケージ(EL)は、データのクリーニングと統合において重要な問題である。
新たなデータの増加に伴い、ディープラーニング(DL)ベースのアプローチが提案され、従来のモデルに付随するELの高コスト化が図られている。
我々は、ツインネットワークアーキテクチャはELに準最適であり、既存のモデルに固有の欠点をもたらすと主張している。
論文 参考訳(メタデータ) (2020-09-15T16:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。