論文の概要: Adversarial Bug Reports as a Security Risk in Language Model-Based Automated Program Repair
- arxiv url: http://arxiv.org/abs/2509.05372v1
- Date: Thu, 04 Sep 2025 09:41:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.472121
- Title: Adversarial Bug Reports as a Security Risk in Language Model-Based Automated Program Repair
- Title(参考訳): 言語モデルに基づく自動プログラム修復におけるセキュリティリスクとしての逆バグ報告
- Authors: Piotr Przymus, Andreas Happe, Jürgen Cito,
- Abstract要約: 自動プログラム修復(APR)システムは、現代のソフトウェア開発にますます統合されている。
本稿では,敵のバグ報告によるセキュリティリスクについて検討する。
我々は、包括的脅威モデルを開発し、そのような攻撃に対する最先端のAPRシステムの脆弱性を評価するための実証的研究を行う。
- 参考スコア(独自算出の注目度): 1.1677624591989955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) - based Automated Program Repair (APR) systems are increasingly integrated into modern software development workflows, offering automated patches in response to natural language bug reports. However, this reliance on untrusted user input introduces a novel and underexplored attack surface. In this paper, we investigate the security risks posed by adversarial bug reports -- realistic-looking issue submissions crafted to mislead APR systems into producing insecure or harmful code changes. We develop a comprehensive threat model and conduct an empirical study to evaluate the vulnerability of state-of-the-art APR systems to such attacks. Our demonstration comprises 51 adversarial bug reports generated across a spectrum of strategies, from manual curation to fully automated pipelines. We test these against leading APR model and assess both pre-repair defenses (e.g., LlamaGuard variants, PromptGuard variants, Granite-Guardian, and custom LLM filters) and post-repair detectors (GitHub Copilot, CodeQL). Our findings show that current defenses are insufficient: 90\% of crafted bug reports triggered attacker-aligned patches. The best pre-repair filter blocked only 47\%, while post-repair analysis-often requiring human oversight-was effective in just 58\% of cases. To support scalable security testing, we introduce a prototype framework for automating the generation of adversarial bug reports. Our analysis exposes a structural asymmetry: generating adversarial inputs is inexpensive, while detecting or mitigating them remains costly and error-prone. We conclude with practical recommendations for improving the robustness of APR systems against adversarial misuse and highlight directions for future work on trustworthy automated repair.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースの自動プログラム修復(APR)システムは、ますます現代のソフトウェア開発ワークフローに統合され、自然言語のバグレポートに応答して自動パッチを提供するようになっている。
しかし、この信頼できないユーザ入力への依存は、新規で未探索な攻撃面を導入している。
本稿では,APRシステムの不正な安全性や有害なコード変更を発生させるような現実的な問題として,敵のバグ報告がもたらすセキュリティリスクについて検討する。
我々は、包括的脅威モデルを開発し、そのような攻撃に対する最先端のAPRシステムの脆弱性を評価するための実証的研究を行う。
デモでは、手作業によるキュレーションから完全に自動化されたパイプラインまで、さまざまな戦略で生成された51の逆バグレポートで構成されています。
先進的なAPRモデルに対してこれらをテストし、プレリペアディフェンス(例えば、LlamaGuardの変種、PromptGuardの変種、Granite-Guardian、カスタムLLMフィルタ)とポストリペアディテクター(GitHub Copilot、CodeQL)の両方を評価します。
その結果,現在の防御策は不十分であることが判明した。90%のクラフトバグ報告がアタッカー対応パッチを発生させた。
最高のプレレペアフィルタはわずか47%しかブロックしなかったが、リペア後の分析では、わずか58パーセントのケースで人間の監視が必要な場合が多い。
スケーラブルなセキュリティテストをサポートするために、敵バグレポートの自動生成のためのプロトタイプフレームワークを導入する。
逆入力の生成は安価で、検出や緩和はコストがかかりエラーが発生しやすいという構造的非対称性を呈する。
我々は、敵の誤用に対するAPRシステムの堅牢性を改善するための実践的な勧告と、信頼性の高い自動修理に向けた今後の取り組みの方向性を強調した。
関連論文リスト
- Trust Me, I Know This Function: Hijacking LLM Static Analysis using Bias [3.178301843099705]
大規模言語モデル(LLM)は、自動化されたコードレビューと静的解析を大規模に実行するようにますます信頼されている。
本稿では,LLMに基づくコード解析において重要な脆弱性を特定し,活用する。
我々は、FPA(Familiar Pattern Attack)をターゲットコードに検出し、注入する、完全に自動化されたブラックボックスアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-08-24T13:42:48Z) - Benchmarking Misuse Mitigation Against Covert Adversaries [80.74502950627736]
既存の言語モデルの安全性評価は、オーバースト攻撃と低レベルのタスクに重点を置いている。
我々は、隠蔽攻撃と対応する防御の評価を自動化するデータ生成パイプラインである、ステートフルディフェンスのためのベンチマーク(BSD)を開発した。
評価の結果,分解攻撃は有効な誤用防止剤であり,その対策としてステートフルディフェンスを強調した。
論文 参考訳(メタデータ) (2025-06-06T17:33:33Z) - A Multi-Dataset Evaluation of Models for Automated Vulnerability Repair [2.7674959824386858]
本研究では、6つのデータセットと4つの言語にまたがる自動脆弱性パッチのための事前訓練された言語モデルであるCodeBERTとCodeT5について検討する。
それらの精度と一般化を未知の脆弱性に対して評価する。
結果は、両方のモデルが断片化やスパースなコンテキストで課題に直面しているのに対して、CodeBERTはそのようなシナリオでは比較的優れたパフォーマンスを示し、CodeT5は複雑な脆弱性パターンのキャプチャに優れていることを示している。
論文 参考訳(メタデータ) (2025-06-05T13:00:19Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Evaluating Pre-Trained Models for Multi-Language Vulnerability Patching [3.220818227251765]
本稿では,事前学習型言語モデルであるCodeBERTとCodeT5の脆弱性パッチ自動適用の可能性について検討する。
これらのモデルの精度、計算効率、脆弱性のあるコードパッチの長さがパフォーマンスに与える影響について評価する。
論文 参考訳(メタデータ) (2025-01-13T13:51:05Z) - A Case Study of LLM for Automated Vulnerability Repair: Assessing Impact of Reasoning and Patch Validation Feedback [7.742213291781287]
提案するVRpilotは,推論とパッチ検証フィードバックに基づく脆弱性修復手法である。
以上の結果から,VRpilotはCとJavaのベースライン技術よりも平均14%と7.6%の正確なパッチを生成することがわかった。
論文 参考訳(メタデータ) (2024-05-24T16:29:48Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Early Detection of Security-Relevant Bug Reports using Machine Learning:
How Far Are We? [6.438136820117887]
典型的なメンテナンスシナリオでは、セキュリティ関連バグレポートは、修正パッチを作成する際に開発チームによって優先される。
オープンなセキュリティ関連バグレポートは、攻撃者がゼロデイ攻撃を実行するために活用できる機密情報の重大な漏洩になる可能性がある。
近年,機械学習に基づくセキュリティ関連バグレポートの検出手法が,有望な性能で報告されている。
論文 参考訳(メタデータ) (2021-12-19T11:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。