論文の概要: DeepMutants: Training neural bug detectors with contextual mutations
- arxiv url: http://arxiv.org/abs/2107.06657v1
- Date: Wed, 14 Jul 2021 12:45:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 20:59:43.008328
- Title: DeepMutants: Training neural bug detectors with contextual mutations
- Title(参考訳): DeepMutants: コンテキスト変異による神経バグ検出のトレーニング
- Authors: Cedric Richter, Heike Wehrheim
- Abstract要約: 学習ベースのバグ検知器は、自然なヒントを利用して、大きなコードベースのバグを見つけることを約束する。
それでも、既存のテクニックは、現実的なバグを提示するとパフォーマンスが低下する傾向があります。
本稿では,自然かつ現実的な欠陥を動的にコードに注入する新しい文脈突然変異演算子を提案する。
- 参考スコア(独自算出の注目度): 0.799536002595393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning-based bug detectors promise to find bugs in large code bases by
exploiting natural hints such as names of variables and functions or comments.
Still, existing techniques tend to underperform when presented with realistic
bugs. We believe bug detector learning to currently suffer from a lack of
realistic defective training examples. In fact, real world bugs are scarce
which has driven existing methods to train on artificially created and mostly
unrealistic mutants. In this work, we propose a novel contextual mutation
operator which incorporates knowledge about the mutation context to dynamically
inject natural and more realistic faults into code. Our approach employs a
masked language model to produce a context-dependent distribution over feasible
token replacements. The evaluation shows that sampling from a language model
does not only produce mutants which more accurately represent real bugs but
also lead to better performing bug detectors, both on artificial benchmarks and
on real world source code.
- Abstract(参考訳): 学習ベースのバグ検知器は、変数名や関数名、コメントなどの自然なヒントを利用して、大きなコードベースでバグを見つけることを約束する。
それでも、既存のテクニックは、現実的なバグを提示するとパフォーマンスが低下する傾向があります。
バグ検出学習は現在、現実的なトレーニング例の欠如に苦しんでいると思います。
実際、現実世界のバグは少なく、既存の方法で人工的に作られ、ほとんど非現実的なミュータントを訓練している。
本研究では,突然変異文脈に関する知識を組み込んで,自然およびより現実的な障害を動的にコードに注入する,新しい文脈突然変異演算子を提案する。
提案手法はマスキング言語モデルを用いて,実現可能なトークン置換に対するコンテキスト依存分布を生成する。
評価の結果、言語モデルからのサンプリングは、実際のバグをより正確に表現するミュータントを生成するだけでなく、人工ベンチマークと実世界のソースコードの両方において、より良いバグ検出を行うことができた。
関連論文リスト
- LLM Critics Help Catch Bugs in Mathematics: Towards a Better Mathematical Verifier with Natural Language Feedback [71.95402654982095]
本研究では,自然言語フィードバック型検証器Math-Minosを提案する。
実験の結果,少量の自然言語フィードバックが検証器の性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-06-20T06:42:27Z) - LLMorpheus: Mutation Testing using Large Language Models [7.312170216336085]
本稿では,ソースコードに挿入されたプレースホルダーを置き換えることで,LLM(Large Language Model)に変異を提案する手法を提案する。
LLMorpheusは、最先端の突然変異検査ツールであるStrykerJSでは生成できない既存のバグに似た変異を生成できる。
論文 参考訳(メタデータ) (2024-04-15T17:25:14Z) - Automated Bug Generation in the era of Large Language Models [6.0770779409377775]
BugFarmは任意のコードを複数の複雑なバグに変換する。
BUGFARMが生成した1.9万以上の変異株から435k以上のバグを総合的に評価する。
論文 参考訳(メタデータ) (2023-10-03T20:01:51Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - Can we learn from developer mistakes? Learning to localize and repair
real bugs from real bug fixes [0.5330240017302619]
私たちは、実際のバグ修正から実際のバグをローカライズし、修正する学習のための、事前訓練と微調整のアプローチであるRealiTを紹介します。
RealiTを使った実際のバグ修正のトレーニングは、実際のバグに対して既存のモデルのローカライズ性能をほぼ倍にすることで、経験的に強力であることが分かりました。
論文 参考訳(メタデータ) (2022-07-01T09:49:17Z) - On Distribution Shift in Learning-based Bug Detectors [4.511923587827301]
まず、モデルをバグ検出領域に適応させるため、次に実際のバグ検出領域に適応させるために、モデルを実際の配布に向けて駆動するために、バグ検出装置を2つのフェーズで訓練する。
我々は,本手法を広範に研究した3種類のバグタイプに対して評価し,実際のバグ分布を捉えるために慎重に設計された新しいデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-21T12:17:22Z) - Generating Bug-Fixes Using Pretrained Transformers [11.012132897417592]
実世界のgithubからマイニングしたjavaメソッドのバグの検出と修正を学ぶ,データ駆動型プログラム修復手法を導入する。
ソースコードプログラムの事前トレーニングは,スクラッチからの教師ありトレーニングに比べて,33%のパッチ数を改善することを示す。
我々は,標準精度評価基準を非削除および削除のみの修正に洗練し,我々の最良モデルが従来よりも75%多くの非削除修正を生成することを示す。
論文 参考訳(メタデータ) (2021-04-16T05:27:04Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。