論文の概要: RaceFixer -- An Automated Data Race Fixer
- arxiv url: http://arxiv.org/abs/2401.04221v1
- Date: Mon, 8 Jan 2024 20:25:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 18:36:46.318417
- Title: RaceFixer -- An Automated Data Race Fixer
- Title(参考訳): RaceFixer - データ自動レースフィクスラー
- Authors: Sanjay Malakar, Tameem Bin Haider, Rifat Shahriar
- Abstract要約: RaceFixerは、ひとつの一般的なタイプのバグを修正するプロセスを自動化する。
複数のバグのパッチを組み合わせることで、パフォーマンスとコードの可読性を向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fixing software bugs has always been an essential and time-consuming process
in software development. Fixing concurrency bugs has become especially critical
in the multicore era. However, fixing concurrency bugs is challenging due to
non-deterministic failures and tricky parallel reasoning. Beyond correctly
fixing the original problem in the software, a good patch should also avoid
introducing new bugs, degrading performance unnecessarily, or damaging software
readability. Existing tools cannot automate the whole fixing process and
provide good-quality patches. We present RaceFixer, a tool that automates the
process of fixing one common type of concurrency bug: single-variable atomicity
violations. RaceFixer starts from the bug reports of an existing bug-detection
tool ThreadSanitizer. It augments these with static analysis to construct a
suitable patch for each bug report. It tries to combine the patches of multiple
bugs for better performance and code readability. Finally, we test RaceFixer on
benchmarks from TheadSanitizer.
- Abstract(参考訳): ソフトウェアバグの修正は常に、ソフトウェア開発において不可欠で時間を要するプロセスでした。
並列性バグの修正は、特にマルチコア時代において重要になっている。
しかし、非決定論的失敗とトリッキーな並列推論のため、並行性バグの修正は困難である。
ソフトウェアのオリジナルの問題を正しく修正する以外に、優れたパッチは、新しいバグの導入やパフォーマンスの低下、ソフトウェア可読性を損なうことも避けるべきです。
既存のツールは、修正プロセス全体を自動化し、高品質なパッチを提供することはできません。
RaceFixerは、単一の変数のアトミック性違反という1つの一般的な並行性バグを修正するプロセスを自動化するツールです。
RaceFixerは、既存のバグ検出ツールThreadSanitizerのバグレポートから始まる。
静的解析によってこれらを拡張し、各バグレポートに適したパッチを構築する。
複数のバグのパッチを組み合わせることで、パフォーマンスとコードの可読性が向上する。
最後に、TheadSanitizerのベンチマークでRaceFixerをテストする。
関連論文リスト
- KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - GitBug-Actions: Building Reproducible Bug-Fix Benchmarks with GitHub
Actions [8.508198765617196]
GitBug-Actionsは、最新の完全に再現可能なバグフィックスでバグフィックスベンチマークを構築するための新しいツールです。
GitBug-Actionsは、最も人気のあるCIプラットフォームであるGitHub Actionsに依存してバグフィックスを検出する。
ツールチェーンを実証するために、GitBug-Actionsをデプロイして、概念実証Goバグフィックスベンチマークを構築しました。
論文 参考訳(メタデータ) (2023-10-24T09:04:14Z) - Automated Bug Generation in the era of Large Language Models [6.0770779409377775]
BugFarmは任意のコードを複数の複雑なバグに変換する。
BUGFARMが生成した1.9万以上の変異株から435k以上のバグを総合的に評価する。
論文 参考訳(メタデータ) (2023-10-03T20:01:51Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - ADPTriage: Approximate Dynamic Programming for Bug Triage [0.0]
オンラインバグトリアージタスクのためのマルコフ決定プロセス(MDP)モデルを開発した。
私たちはADPTriageと呼ばれるADPベースのバグトリアージソリューションを提供しています。
以上の結果から, 代入精度と固定時間の観点から, ミオピックアプローチよりも有意な改善が見られた。
論文 参考訳(メタデータ) (2022-11-02T04:42:21Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z) - DABT: A Dependency-aware Bug Triaging Method [0.0]
自然言語処理と整数を利用して,適切な開発者にバグを割り当てる,Dependency-aware Bug Triaging(DABT)と呼ばれるバグトリアージ手法を提案する。
その結果,DABTは過度なバグを最大12%まで減らすことができることがわかった。
また、バグの修正時間の平均を半減します。
論文 参考訳(メタデータ) (2021-04-26T17:35:42Z) - Generating Bug-Fixes Using Pretrained Transformers [11.012132897417592]
実世界のgithubからマイニングしたjavaメソッドのバグの検出と修正を学ぶ,データ駆動型プログラム修復手法を導入する。
ソースコードプログラムの事前トレーニングは,スクラッチからの教師ありトレーニングに比べて,33%のパッチ数を改善することを示す。
我々は,標準精度評価基準を非削除および削除のみの修正に洗練し,我々の最良モデルが従来よりも75%多くの非削除修正を生成することを示す。
論文 参考訳(メタデータ) (2021-04-16T05:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。