論文の概要: App Review Driven Collaborative Bug Finding
- arxiv url: http://arxiv.org/abs/2301.02818v1
- Date: Sat, 7 Jan 2023 09:38:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 17:52:52.960618
- Title: App Review Driven Collaborative Bug Finding
- Title(参考訳): アプリレビューによる共同バグ発見
- Authors: Xunzhu Tang and Haoye Tian and Pingfan Kong and Kui Liu and Jacques
Klein and Tegawend\'e F. Bissyande
- Abstract要約: 我々は、同じカテゴリーのモバイルアプリが、進化過程における同様のバグによって影響を受ける可能性があるという仮説に基づいて構築する。
ある履歴アプリの体験を移して、新しいアプリのバグを素早く見つけることができる。
我々は、BugRMSysアプローチを設計し、同じカテゴリのアプリの履歴バグレポートとターゲットアプリのユーザアプリレビューをマッチングすることで、ターゲットアプリのバグレポートを推奨する。
- 参考スコア(独自算出の注目度): 5.024930832959602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software development teams generally welcome any effort to expose bugs in
their code base. In this work, we build on the hypothesis that mobile apps from
the same category (e.g., two web browser apps) may be affected by similar bugs
in their evolution process. It is therefore possible to transfer the experience
of one historical app to quickly find bugs in its new counterparts. This has
been referred to as collaborative bug finding in the literature. Our novelty is
that we guide the bug finding process by considering that existing bugs have
been hinted within app reviews. Concretely, we design the BugRMSys approach to
recommend bug reports for a target app by matching historical bug reports from
apps in the same category with user app reviews of the target app. We
experimentally show that this approach enables us to quickly expose and report
dozens of bugs for targeted apps such as Brave (web browser app). BugRMSys's
implementation relies on DistilBERT to produce natural language text
embeddings. Our pipeline considers similarities between bug reports and app
reviews to identify relevant bugs. We then focus on the app review as well as
potential reproduction steps in the historical bug report (from a same-category
app) to reproduce the bugs.
Overall, after applying BugRMSys to six popular apps, we were able to
identify, reproduce and report 20 new bugs: among these, 9 reports have been
already triaged, 6 were confirmed, and 4 have been fixed by official
development teams, respectively.
- Abstract(参考訳): ソフトウェア開発チームは一般的に、コードベースのバグを公開する努力を歓迎します。
この研究は、同じカテゴリのモバイルアプリ(例えば、2つのWebブラウザアプリ)が、進化過程における同様のバグによって影響を受ける可能性があるという仮説に基づいている。
したがって、ある履歴アプリの体験を移行して、新しいアプリのバグを素早く見つけることができる。
これは文献で共同バグ発見と呼ばれている。
私たちの目新しさは、既存のバグがアプリのレビューでほのめかされていることを考慮して、バグ発見プロセスをガイドすることです。
具体的には、BugRMSysアプローチを設計し、同じカテゴリのアプリの履歴バグレポートとターゲットアプリのユーザアプリレビューをマッチングすることで、ターゲットアプリのバグレポートを推奨する。
このアプローチがBrave(Webブラウザアプリ)のようなターゲットアプリに対して,数十のバグを迅速に公開し,報告することを可能にすることを実験的に示す。
BugRMSysの実装は、自然言語のテキスト埋め込みを生成するためにDistilBERTに依存している。
私たちのパイプラインは、バグレポートとアプリレビューの類似性を考慮し、関連するバグを特定します。
次に、バグを再現する履歴バグレポート(同じカテゴリのアプリから)の、アプリのレビューと、潜在的な再現ステップに焦点を当てます。
全体として、人気のある6つのアプリにbugrmsysを適用した後、新たに20のバグを特定し、再現し、報告することができた。
関連論文リスト
- Feedback-Driven Automated Whole Bug Report Reproduction for Android Apps [23.460238111094608]
ReBLは、Androidのバグレポートを再現するための、フィードバック駆動のアプローチである。
従来のステップバイステップのエンティティマッチングアプローチよりも柔軟でコンテキスト対応です。
非クラッシュな機能的なバグレポートを処理できる。
論文 参考訳(メタデータ) (2024-07-06T19:58:03Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - Toward Rapid Bug Resolution for Android Apps [0.4759142872591625]
本稿では,既存のバグレポートの限界について述べるとともに,それに対応するための潜在的戦略を明らかにする。
私たちのビジョンは、これらの制限の緩和と、提案された新しい研究の方向性の実行が、レポーターと開発者の両方に利益をもたらす、未来を包含しています。
論文 参考訳(メタデータ) (2023-12-23T18:29:06Z) - Can LLMs Demystify Bug Reports? [0.6650227510403052]
ChatGPTは報告されたバグの50%を解読し、再現することができた。
報告されたバグの半数に自動的に対処できることは、バグに対処するために機械学習を適用することで、バグを報告できるのは人力のみである、という有望な可能性を示している。
論文 参考訳(メタデータ) (2023-10-10T05:07:00Z) - Auto-labelling of Bug Report using Natural Language Processing [0.0]
ルールとクエリベースのソリューションは、明確なランキングのない、潜在的な類似バグレポートの長いリストを推奨します。
本論文では,NLP手法の組み合わせによる解を提案する。
カスタムデータトランスフォーマー、ディープニューラルネットワーク、および非汎用機械学習メソッドを使用して、既存の同一バグレポートを検索する。
論文 参考訳(メタデータ) (2022-12-13T02:32:42Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - S3M: Siamese Stack (Trace) Similarity Measure [55.58269472099399]
本稿では、深層学習に基づくスタックトレースの類似性を計算する最初のアプローチであるS3Mを紹介します。
BiLSTMエンコーダと、類似性を計算するための完全接続型分類器をベースとしている。
私たちの実験は、オープンソースデータとプライベートなJetBrainsデータセットの両方において、最先端のアプローチの優位性を示しています。
論文 参考訳(メタデータ) (2021-03-18T21:10:41Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。