論文の概要: Automated Duplicate Bug Report Detection in Large Open Bug Repositories
- arxiv url: http://arxiv.org/abs/2504.14797v1
- Date: Mon, 21 Apr 2025 01:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 20:04:14.337333
- Title: Automated Duplicate Bug Report Detection in Large Open Bug Repositories
- Title(参考訳): 大型オープンバグリポジトリにおける重複バグレポートの自動検出
- Authors: Clare E. Laney, Andrew Barovic, Armin Moin,
- Abstract要約: 大規模なオープンソースプロジェクトのユーザやコントリビュータは,問題追跡システムにソフトウェア欠陥や拡張要求(バグレポートとして知られる)を報告している。
オープンバグレポジトリにおける重複バグレポートを自動的に検出する機械学習手法に基づく新しい手法を提案する。
- 参考スコア(独自算出の注目度): 3.481985817302898
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many users and contributors of large open-source projects report software defects or enhancement requests (known as bug reports) to the issue-tracking systems. However, they sometimes report issues that have already been reported. First, they may not have time to do sufficient research on existing bug reports. Second, they may not possess the right expertise in that specific area to realize that an existing bug report is essentially elaborating on the same matter, perhaps with a different wording. In this paper, we propose a novel approach based on machine learning methods that can automatically detect duplicate bug reports in an open bug repository based on the textual data in the reports. We present six alternative methods: Topic modeling, Gaussian Naive Bayes, deep learning, time-based organization, clustering, and summarization using a generative pre-trained transformer large language model. Additionally, we introduce a novel threshold-based approach for duplicate identification, in contrast to the conventional top-k selection method that has been widely used in the literature. Our approach demonstrates promising results across all the proposed methods, achieving accuracy rates ranging from the high 70%'s to the low 90%'s. We evaluated our methods on a public dataset of issues belonging to an Eclipse open-source project.
- Abstract(参考訳): 大規模なオープンソースプロジェクトのユーザやコントリビュータは,問題追跡システムにソフトウェア欠陥や拡張要求(バグレポートとして知られる)を報告している。
しかし、すでに報告されている問題を報告することもある。
まず、既存のバグレポートについて十分な調査を行う時間がないかもしれない。
第二に、既存のバグレポートが本質的に同じことを、おそらくは別の言葉で検討していることに気付くために、特定の領域で適切な専門知識を持っていないかもしれない。
本稿では,本報告のテキストデータに基づいて,オープンバグリポジトリ内の重複バグレポートを自動的に検出する機械学習手法を提案する。
本稿では, トピックモデリング, ガウスネーブベイズ, ディープラーニング, 時間に基づく組織, クラスタリング, および生成事前学習型大言語モデルを用いた要約の6つの方法を提案する。
さらに、文献で広く使われている従来のトップk選択法とは対照的に、新しいしきい値に基づく二重識別手法を導入する。
本手法は提案手法のすべてに有望な結果を示し,高い70%から低い90%までの精度を実現する。
当社の手法をEclipseオープンソースプロジェクトに属する問題の公開データセットで評価した。
関連論文リスト
- Automated Bug Report Prioritization in Large Open-Source Projects [3.9134031118910264]
本稿では,バグレポートの自然言語テキストに基づく自動バグ優先順位付け手法を提案する。
我々は、TopicMiner-MTMと呼ばれるLDAの変種を用いてトピックモデリングを行い、BERT大言語モデルを用いてテキスト分類を行う。
Eclipse Platformプロジェクトの85,156のバグレポートを含む既存のリファレンスデータセットを用いた実験結果から、バグレポートの優先度予測の正確性、正確性、リコール、F1測定の点で、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2025-04-22T13:57:48Z) - Understanding the Impact of Domain Term Explanation on Duplicate Bug Report Detection [2.9312156642007294]
重複バグレポートはバグトラッキングシステム(例えばBugzilla)の全レポートの42%を占める。
伝統的な技法は、しばしばテキストに類似した複製を検出することに重点を置いている。
オープンソースプロジェクトのバグレポートの約78%は非常に短い(例:100語未満)。
論文 参考訳(メタデータ) (2025-03-24T16:09:37Z) - An Empirical Study on the Classification of Bug Reports with Machine Learning [1.1499574149885023]
課題報告の分類処理において,異なる要因(プロジェクト言語,報告内容など)がモデルの性能に与える影響について検討する。
Support Vector Machine, Logistic Regression, Random Forestは課題レポートの分類に有効である。
不均一なプロジェクトに基づくモデルは、トレーニング中に存在しないプロジェクトからのレポートを分類することができる。
論文 参考訳(メタデータ) (2025-03-01T23:19:56Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Recommending Bug Assignment Approaches for Individual Bug Reports: An
Empirical Investigation [8.186068333538893]
バグレポートに対処できる潜在的な開発者を自動的に推薦する複数のアプローチが提案されている。
これらのアプローチは一般的に、あらゆるソフトウェアプロジェクトに提出されたバグレポートに対して機能するように設計されています。
2つのオープンソースシステムから2,249件のバグレポートに適用した3つのバグ割り当て手法を用いて,この推測を検証する実験的検討を行った。
論文 参考訳(メタデータ) (2023-05-29T23:02:56Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Auto-labelling of Bug Report using Natural Language Processing [0.0]
ルールとクエリベースのソリューションは、明確なランキングのない、潜在的な類似バグレポートの長いリストを推奨します。
本論文では,NLP手法の組み合わせによる解を提案する。
カスタムデータトランスフォーマー、ディープニューラルネットワーク、および非汎用機械学習メソッドを使用して、既存の同一バグレポートを検索する。
論文 参考訳(メタデータ) (2022-12-13T02:32:42Z) - Automatic Classification of Bug Reports Based on Multiple Text
Information and Reports' Intention [37.67372105858311]
本稿では,バグレポートの自動分類手法を提案する。
イノベーションは、バグレポートを分類する際に、レポートのテキスト情報に加えて、レポートの意図も考慮することである。
提案手法は性能が向上し,F-Measureは87.3%から95.5%に向上した。
論文 参考訳(メタデータ) (2022-08-02T06:44:51Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - S3M: Siamese Stack (Trace) Similarity Measure [55.58269472099399]
本稿では、深層学習に基づくスタックトレースの類似性を計算する最初のアプローチであるS3Mを紹介します。
BiLSTMエンコーダと、類似性を計算するための完全接続型分類器をベースとしている。
私たちの実験は、オープンソースデータとプライベートなJetBrainsデータセットの両方において、最先端のアプローチの優位性を示しています。
論文 参考訳(メタデータ) (2021-03-18T21:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。