論文の概要: CrashJS: A NodeJS Benchmark for Automated Crash Reproduction
- arxiv url: http://arxiv.org/abs/2405.05541v1
- Date: Thu, 9 May 2024 04:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 14:12:43.930311
- Title: CrashJS: A NodeJS Benchmark for Automated Crash Reproduction
- Title(参考訳): CrashJS: 自動クラッシュ再現のためのNodeJSベンチマーク
- Authors: Philip Oliver, Jens Dietrich, Craig Anslow, Michael Homer,
- Abstract要約: ソフトウェアのバグは、しばしばソフトウェアクラッシュを引き起こし、アメリカの企業は年間2.08兆ドル以上のコストがかかる。
クラッシュ自動再現は、クラッシュを正常に再現するユニットテストを生成することを目的としている。
CrashJSは、複数のソースから453のNode.jsクラッシュのベンチマークデータセットである。
- 参考スコア(独自算出の注目度): 4.3560886861249255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software bugs often lead to software crashes, which cost US companies upwards of $2.08 trillion annually. Automated Crash Reproduction (ACR) aims to generate unit tests that successfully reproduce a crash. The goal of ACR is to aid developers with debugging, providing them with another tool to locate where a bug is in a program. The main approach ACR currently takes is to replicate a stack trace from an error thrown within a program. Currently, ACR has been developed for C, Java, and Python, but there are no tools targeting JavaScript programs. To aid the development of JavaScript ACR tools, we propose CrashJS: a benchmark dataset of 453 Node.js crashes from several sources. CrashJS includes a mix of real-world and synthesised tests, multiple projects, and different levels of complexity for both crashes and target programs.
- Abstract(参考訳): ソフトウェアのバグは、しばしばソフトウェアクラッシュを引き起こし、アメリカの企業は年間2.08兆ドル以上のコストがかかる。
ACR(Automated Crash Reproduction)は、クラッシュを正常に再現するユニットテストを生成することを目的としている。
ACRの目標は、デバッグを支援することで、バグがプログラム内にある場所を特定する別のツールを提供することである。
現在のACRの主なアプローチは、プログラム内でスローされたエラーからスタックトレースを複製することである。
現在、ACRはC、Java、Python向けに開発されているが、JavaScriptプログラムをターゲットにしたツールは存在しない。
JavaScript ACRツールの開発を支援するために、いくつかのソースから453のNode.jsがクラッシュしたベンチマークデータセットであるCrashJSを提案する。
CrashJSには、実世界のテストと合成テスト、複数のプロジェクト、クラッシュとターゲットプログラムの両方でさまざまなレベルの複雑さが含まれている。
関連論文リスト
- A Preliminary Study of Fixed Flaky Tests in Rust Projects on GitHub [5.806051501952938]
GitHub上のRustプロジェクトでは、不安定なテストの研究が進行中です。
修正は根本原因、マニフェストの特徴、修正戦略に関する貴重な情報を提供することができるので、報告されただけでなく、修正される不安定なテストに重点を置いています。
論文 参考訳(メタデータ) (2025-02-04T22:55:54Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - Mutation-Based Deep Learning Framework Testing Method in JavaScript Environment [16.67312523556796]
そこで本研究では,DLJSFuzzerという変異ベースのJavaScript DLフレームワークテスティング手法を提案する。
DLJSFuzzerは21のユニークなクラッシュと126のNaN & Inconsistencyバグを正常に検出する。
DLJSFuzzerはモデル生成効率が47%以上、バグ検出効率が91%以上改善されている。
論文 参考訳(メタデータ) (2024-09-23T12:37:56Z) - KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - Concolic Testing of JavaScript using Sparkplug [6.902028735328818]
JSのInsitu Concolic Testingは有効だが、遅く、複雑である。
本稿では,V8 Sparkplugのベースラインコンパイラと,LLVM IR変換への組立のためのリミルライブラリによるトレースを改良する。
論文 参考訳(メタデータ) (2024-05-10T22:11:53Z) - CrashTranslator: Automatically Reproducing Mobile Application Crashes
Directly from Stack Trace [30.48737611250448]
本稿では,モバイルアプリケーションのクラッシュを自動的にスタックトレースから直接再現するCrashTranslatorという手法を提案する。
CrashTranslatorを58のAndroidアプリを含む75のクラッシュレポートで評価し、61.3%のクラッシュを再現しました。
論文 参考訳(メタデータ) (2023-10-11T02:00:18Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - Automatic Root Cause Analysis via Large Language Models for Cloud
Incidents [51.94361026233668]
クラウドインシデントの根本原因分析を自動化するために,大規模言語モデルによって強化されたオンコールシステムであるRCACopilotを紹介する。
RCACopilotは、入ってくるインシデントと、そのアラートタイプに基づいて対応するインシデントハンドラとをマッチングし、クリティカルランタイム診断情報を集約し、インシデントの根本原因カテゴリを予測し、説明的な物語を提供する。
Microsoftから1年分のインシデントからなる実世界のデータセットを使用してRCACopilotを評価する。
論文 参考訳(メタデータ) (2023-05-25T06:44:50Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。