論文の概要: PyResBugs: A Dataset of Residual Python Bugs for Natural Language-Driven Fault Injection
- arxiv url: http://arxiv.org/abs/2505.05777v1
- Date: Fri, 09 May 2025 04:39:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.150342
- Title: PyResBugs: A Dataset of Residual Python Bugs for Natural Language-Driven Fault Injection
- Title(参考訳): PyResBugs: 自然言語駆動障害注入のための残留Pythonバグのデータセット
- Authors: Domenico Cotroneo, Giuseppe De Rosa, Pietro Liguori,
- Abstract要約: PyResBugsは、主要なPythonフレームワークからの残留バグのデータセットである。
各バグは、対応するフォールトフリー(固定)バージョンとペアリングされ、マルチレベル自然言語(NL)記述と注釈付けされる。
- 参考スコア(独自算出の注目度): 5.383910843560784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents PyResBugs, a curated dataset of residual bugs, i.e., defects that persist undetected during traditional testing but later surface in production, collected from major Python frameworks. Each bug in the dataset is paired with its corresponding fault-free (fixed) version and annotated with multi-level natural language (NL) descriptions. These NL descriptions enable natural language-driven fault injection, offering a novel approach to simulating real-world faults in software systems. By bridging the gap between software fault injection techniques and real-world representativeness, PyResBugs provides researchers with a high-quality resource for advancing AI-driven automated testing in Python systems.
- Abstract(参考訳): PyResBugsは,従来のテスト中に検出されず,その後運用中に表面的に検出された欠陥を,主要なPythonフレームワークから収集する,残留バグのキュレートされたデータセットである。
データセットの各バグは、対応するフォールトフリー(固定)バージョンとペアリングされ、マルチレベル自然言語(NL)記述に注釈付けされる。
これらのNL記述は、自然言語駆動のフォールトインジェクションを可能にし、ソフトウェアシステムの現実のフォールトをシミュレートするための新しいアプローチを提供する。
PyResBugsは、ソフトウェア障害注入技術と実世界の代表性の間のギャップを埋めることによって、PythonシステムにおけるAI駆動自動テストを進めるための高品質なリソースを提供する。
関連論文リスト
- LLPut: Investigating Large Language Models for Bug Report-Based Input Generation [0.0]
エラーを引き起こすインプットは、ソフトウェアバグの診断と分析において重要な役割を担います。
従来の研究では、様々な自然言語処理(NLP)技術を利用して自動入力抽出を行っている。
大規模言語モデル (LLMs) の出現により、重要な研究課題が生じる: ジェネレーティブLLMは、バグレポートから障害誘発インプットを効果的に抽出できるのか?
論文 参考訳(メタデータ) (2025-03-26T14:25:01Z) - PyPulse: A Python Library for Biosignal Imputation [58.35269251730328]
PyPulseは,臨床およびウェアラブルの両方のセンサ設定において生体信号の計算を行うPythonパッケージである。
PyPulseのフレームワークは、非機械学習バイオリサーバーを含む幅広いユーザーベースに対して、使い勝手の良いモジュラーで拡張可能なフレームワークを提供する。
PyPulseはMITライセンスでGithubとPyPIでリリースしました。
論文 参考訳(メタデータ) (2024-12-09T11:00:55Z) - Leveraging Large Language Models in Code Question Answering: Baselines and Issues [0.1617522438111378]
本稿では,Pythonのソースコードに対する質問応答のために,大規模言語モデルを用いた研究について述べる。
提案手法は,Pythonコードの問合せと解答の統一データセット上で,大規模言語モデルを微調整することを含む。
手動エラー解析の結果とともに,BLEU-4,BERTScore F1,BLEURT,Exact Matchの測定値について報告する。
論文 参考訳(メタデータ) (2024-11-05T11:25:12Z) - On Leakage of Code Generation Evaluation Datasets [44.4726918027046]
コード生成テストセットによる汚染について考察する。
これを解決するために、LBPP(Less Basic Python Problems)をリリースします。
論文 参考訳(メタデータ) (2024-07-10T11:50:20Z) - SBFT Tool Competition 2024 -- Python Test Case Generation Track [4.149356993529412]
Pythonのテストケース生成(TCG)は、言語の動的性質と厳密な型情報がないため、独特な課題を生じさせる。
従来の研究では、Python用の自動ユニットTCGの探索に成功しており、ランダムなテスト生成方法よりも優れたソリューションが提供されている。
本稿では,提案手法,競合ツールと組み合わせた結果の分析,および競合実験の実施時に直面する課題について述べる。
論文 参考訳(メタデータ) (2024-01-26T20:21:15Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - An Empirical Study of Fault Localization in Python Programs [4.366130138560774]
本稿では,実環境におけるPythonプログラムと障害の局所化に関するマルチファミリー大規模実証的研究である。
我々は,本研究の基盤として,Javaにおける障害局所化に関するZau et al.の最近の大規模な実証研究を使用している。
結果は、PythonのJavaに関するいくつかの成果を再現し、Pythonの特異性が障害ローカライゼーションの能力に影響を及ぼすかどうかを明かした。
論文 参考訳(メタデータ) (2023-05-31T13:21:30Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。