論文の概要: Advaita: Bug Duplicity Detection System
- arxiv url: http://arxiv.org/abs/2001.10376v1
- Date: Fri, 24 Jan 2020 04:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:26:02.063441
- Title: Advaita: Bug Duplicity Detection System
- Title(参考訳): Advaita:バグの重複検出システム
- Authors: Amit Kumar, Manohar Madanu, Hari Prakash, Lalitha Jonnavithula,
Srinivasa Rao Aravilli
- Abstract要約: 重複バグ率(重複バグの%)は、製品の成熟度、コードのサイズ、プロジェクトに取り組んでいるエンジニアの数に基づいて、1桁(1~9%)から2桁(40%)の範囲にある。
重複の検出は、2つのバグが同じ意味を持つかどうかを識別する。
このアプローチでは、基本的なテキスト統計的特徴、意味的特徴、文脈的特徴など、複数の機能セットを考慮に入れている。
- 参考スコア(独自算出の注目度): 1.9624064951902522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bugs are prevalent in software development. To improve software quality, bugs
are filed using a bug tracking system. Properties of a reported bug would
consist of a headline, description, project, product, component that is
affected by the bug and the severity of the bug. Duplicate bugs rate (% of
duplicate bugs) are in the range from single digit (1 to 9%) to double digits
(40%) based on the product maturity , size of the code and number of engineers
working on the project. Duplicate bugs range are between 9% to 39% in some of
the open source projects like Eclipse, Firefox etc. Detection of duplicity
deals with identifying whether any two bugs convey the same meaning. This
detection of duplicates helps in de-duplication. Detecting duplicate bugs help
reduce triaging efforts and saves time for developers in fixing the issues.
Traditional natural language processing techniques are less accurate in
identifying similarity between sentences. Using the bug data present in a bug
tracking system, various approaches were explored including several machine
learning algorithms, to obtain a viable approach that can identify duplicate
bugs, given a pair of sentences(i.e. the respective bug descriptions). This
approach considers multiple sets of features viz. basic text statistical
features, semantic features and contextual features. These features are
extracted from the headline, description and component and are subsequently
used to train a classification algorithm.
- Abstract(参考訳): バグはソフトウェア開発で多い。
ソフトウェア品質を改善するため、バグトラッキングシステムを使用してバグを申請する。
報告されたバグの特性は、ヘッドライン、説明、プロジェクト、製品、コンポーネントで構成され、バグとバグの深刻度に影響される。
重複バグ率(重複バグの%)は、製品の成熟度、コードのサイズ、プロジェクトに取り組んでいるエンジニアの数に基づいて、1桁(1~9%)から2桁(40%)の範囲にある。
重複バグの範囲は、EclipseやFirefoxなど、いくつかのオープンソースプロジェクトで9%から39%である。
重複の検出は、2つのバグが同じ意味を持つかどうかを識別する。
この重複の検出は重複解消に役立つ。
重複バグの検出は、トリアージの労力を削減し、問題を修正する開発者の時間を節約する。
従来の自然言語処理技術は、文間の類似性を識別するのに精度が低い。
バグ追跡システムに存在するバグデータを用いて、複数の機械学習アルゴリズムを含む様々なアプローチを探索し、複数の文(つまり、それぞれのバグ記述)から重複したバグを識別できる実行可能なアプローチを得る。
このアプローチでは、基本的なテキスト統計的特徴、意味的特徴、文脈的特徴など、複数の機能セットを考慮する。
これらの特徴は見出し、説明、コンポーネントから抽出され、その後分類アルゴリズムのトレーニングに使用される。
関連論文リスト
- Automated Bug Generation in the era of Large Language Models [6.0770779409377775]
BugFarmは任意のコードを複数の複雑なバグに変換する。
BUGFARMが生成した1.9万以上の変異株から435k以上のバグを総合的に評価する。
論文 参考訳(メタデータ) (2023-10-03T20:01:51Z) - PreciseBugCollector: Extensible, Executable and Precise Bug-fix
Collection [8.79879909193717]
正確な多言語バグ収集手法であるPreciseBugCollectorを紹介する。
外部バグリポジトリでリポジトリをマップしてバグタイプ情報をトレースするバグトラッカと、プロジェクト固有のバグを生成するバグインジェクタの2つの新しいコンポーネントに基づいている。
現在、PreciseBugCollectorは2968のオープンソースプロジェクトから抽出された1057818のバグを含んでいる。
論文 参考訳(メタデータ) (2023-09-12T13:47:44Z) - WELL: Applying Bug Detectors to Bug Localization via Weakly Supervised
Learning [37.09621161662761]
本稿では,バグローカライゼーションモデルをトレーニングするためのWEakly supervised bug LocaLization (WELL) 手法を提案する。
CodeBERTはバギーまたはノーのバイナリラベル付きデータに基づいて微調整されるため、WELLはバグのローカライゼーションを弱教師付きで解決することができる。
論文 参考訳(メタデータ) (2023-05-27T06:34:26Z) - Auto-labelling of Bug Report using Natural Language Processing [0.0]
ルールとクエリベースのソリューションは、明確なランキングのない、潜在的な類似バグレポートの長いリストを推奨します。
本論文では,NLP手法の組み合わせによる解を提案する。
カスタムデータトランスフォーマー、ディープニューラルネットワーク、および非汎用機械学習メソッドを使用して、既存の同一バグレポートを検索する。
論文 参考訳(メタデータ) (2022-12-13T02:32:42Z) - Explaining Software Bugs Leveraging Code Structures in Neural Machine
Translation [5.079750706023254]
Bugsplainerは、バグ修正コミットの大規模なコーパスから学ぶことによって、ソフトウェアバグの自然言語説明を生成する。
3つのパフォーマンス指標を用いて評価したところ、BugsplainerはGoogleの標準に従って理解しやすく良い説明を生成できることがわかった。
また、Bugsplainerによる説明がベースラインよりも正確で、より正確で、より有用であることが判明した、20人の参加者を対象にした開発者スタディも実施しました。
論文 参考訳(メタデータ) (2022-12-08T22:19:45Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Scarecrow: A Framework for Scrutinizing Machine Text [69.26985439191151]
我々はScarecrowと呼ばれる新しい構造化されたクラウドソースエラーアノテーションスキーマを導入する。
Scarecrowは1.3kの人文と機械が生成する英語ニューステキストの13kのアノテーションを収集する。
これらの結果は,現在および将来のテキスト生成システムの評価において,Scarecrowアノテーションの価値を示すものである。
論文 参考訳(メタデータ) (2021-07-02T22:37:03Z) - S3M: Siamese Stack (Trace) Similarity Measure [55.58269472099399]
本稿では、深層学習に基づくスタックトレースの類似性を計算する最初のアプローチであるS3Mを紹介します。
BiLSTMエンコーダと、類似性を計算するための完全接続型分類器をベースとしている。
私たちの実験は、オープンソースデータとプライベートなJetBrainsデータセットの両方において、最先端のアプローチの優位性を示しています。
論文 参考訳(メタデータ) (2021-03-18T21:10:41Z) - D2A: A Dataset Built for AI-Based Vulnerability Detection Methods Using
Differential Analysis [55.15995704119158]
静的解析ツールによって報告されたラベル問題に対する差分解析に基づくアプローチであるD2Aを提案する。
D2Aを使用して大きなラベル付きデータセットを生成し、脆弱性識別のためのモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-02-16T07:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。