論文の概要: Following Dragons: Code Review-Guided Fuzzing
- arxiv url: http://arxiv.org/abs/2602.10487v1
- Date: Wed, 11 Feb 2026 03:46:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.437885
- Title: Following Dragons: Code Review-Guided Fuzzing
- Title(参考訳): following Dragons: コードレビューガイドのファジィ
- Authors: Viet Hoang Luu, Amirmohammad Pasdar, Wachiraphan Charoenwet, Toby Murray, Shaanan Cohney, Van-Thuan Pham,
- Abstract要約: EyeQはコードレビューから開発者インテリジェンスを活用してファジィをガイドするシステムである。
我々はまず,セキュリティを重視したPHPコードレビューデータセットに関するヒューマンガイドによる実現可能性調査を通じてEyeQを検証する。
EyeQは、標準的なファジィ設定よりも脆弱性発見を大幅に改善する。
- 参考スコア(独自算出の注目度): 7.963548447895452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern fuzzers scale to large, real-world software but often fail to exercise the program states developers consider most fragile or security-critical. Such states are typically deep in the execution space, gated by preconditions, or overshadowed by lower-value paths that consume limited fuzzing budgets. Meanwhile, developers routinely surface risk-relevant insights during code review, yet this information is largely ignored by automated testing tools. We present EyeQ, a system that leverages developer intelligence from code reviews to guide fuzzing. EyeQ extracts security-relevant signals from review discussions, localizes the implicated program regions, and translates these insights into annotation-based guidance for fuzzing. The approach operates atop existing annotation-aware fuzzing, requiring no changes to program semantics or developer workflows. We first validate EyeQ through a human-guided feasibility study on a security-focused dataset of PHP code reviews, establishing a strong baseline for review-guided fuzzing. We then automate the workflow using a large language model with carefully designed prompts. EyeQ significantly improves vulnerability discovery over standard fuzzing configurations, uncovering more than 40 previously unknown bugs in the security-critical PHP codebase.
- Abstract(参考訳): 現代のファッジャは大規模で現実世界のソフトウェアにスケールするが、プログラムの実行に失敗することが多い。
このような状態は通常、実行空間の奥深くに存在し、事前条件で宣言されるか、限られたファジィ予算を消費する低値パスによって隠蔽される。
一方、開発者はコードレビュー中にリスク関連洞察を定期的に提示するが、この情報は自動テストツールによって無視される。
コードレビューから開発者インテリジェンスを利用してファジィをガイドするシステムであるEyeQを紹介する。
EyeQは、レビューの議論からセキュリティ関連信号を抽出し、関連するプログラム領域をローカライズし、これらの洞察をファジングのためのアノテーションベースのガイダンスに変換する。
このアプローチは、既存のアノテーションを意識したファジィで動作し、プログラムのセマンティクスや開発者のワークフローを変更する必要はない。
我々はまず,PHPコードレビューのセキュリティに重点を置いたデータセットに関する人間によるファジビリティスタディを通じてEyeQを検証する。
次に、慎重に設計されたプロンプトを持つ大きな言語モデルを使用してワークフローを自動化する。
EyeQは標準的なファジィ設定よりも脆弱性発見を大幅に改善し、セキュリティクリティカルなPHPコードベースの40以上の既知のバグを発見した。
関連論文リスト
- A Systematic Literature Review of Code Hallucinations in LLMs: Characterization, Mitigation Methods, Challenges, and Future Directions for Reliable AI [54.34738767990601]
大規模言語モデルがソフトウェアエンジニアリングタスクに統合されるにつれ、コードの幻覚の理解と緩和が不可欠になる。
コード指向LLMにおける幻覚現象を4つの重要な観点から体系的に検討する。
論文 参考訳(メタデータ) (2025-11-02T02:58:41Z) - Enhancing Code Review through Fuzzing and Likely Invariants [13.727241655311664]
FuzzSightは、非クラッシングファジィ入力の潜在的な不変量を利用して、プログラムバージョン間での振る舞いの違いを強調するフレームワークである。
評価では、FuzzSightがレグレッションバグの75%、最大80%の脆弱性を24時間のファズリングによって発見しました。
論文 参考訳(メタデータ) (2025-10-17T10:30:22Z) - Evaluating Language Model Reasoning about Confidential Information [95.64687778185703]
言語モデルが文脈的堅牢性を示すか、文脈依存型安全仕様に準拠する能力を示すかを検討する。
我々は,ユーザ要求がいつ承認されたか,言語モデルが正しく判断できるかどうかを測定するベンチマーク(PasswordEval)を開発した。
現在のオープンソースとクローズドソースのモデルでは、一見単純な作業に苦労しています。
論文 参考訳(メタデータ) (2025-08-27T15:39:46Z) - UQ: Assessing Language Models on Unsolved Questions [149.46593270027697]
当社では,Stack Exchangeから提供された500の難解で多様な質問を対象としたテストベッドであるUQを紹介します。
未解決の質問は、人間が答えを求めるときにしばしば難しく自然に発生する。
上位モデルは15%の質問でUQ検証をパスし、予備的な人間の検証はすでに正しい答えを同定している。
論文 参考訳(メタデータ) (2025-08-25T01:07:59Z) - Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs [129.79394562739705]
大型言語モデル(LLM)は、顕著な流布を示すが、しばしば「幻覚」として知られる致命的な誤りを引き起こす。
本稿では,非教師的アプローチであるRAUQ(Recurrent Attention-based Uncertainty Quantification)を提案する。
4つのLLMと12の質問応答、要約、翻訳タスクにわたる実験は、RAUQが優れた結果をもたらすことを示した。
論文 参考訳(メタデータ) (2025-05-26T14:28:37Z) - A Head to Predict and a Head to Question: Pre-trained Uncertainty Quantification Heads for Hallucination Detection in LLM Outputs [71.97006967209539]
大規模言語モデル(LLM)は幻覚、すなわち、散発的に偽情報や偽情報を生成する傾向を持つ。
不確実性定量化(UQ)は、モデル出力の信頼性を評価するためのフレームワークを提供する。
我々は、Mistral、Llama、Gemma 2など、人気のあるLLMシリーズ向けのUQヘッドのコレクションを事前訓練する。
論文 参考訳(メタデータ) (2025-05-13T03:30:26Z) - CKGFuzzer: LLM-Based Fuzz Driver Generation Enhanced By Code Knowledge Graph [29.490817477791357]
本稿では,コード知識グラフによって駆動され,インテリジェントエージェントシステムによって駆動されるファズテスト手法を提案する。
コードナレッジグラフは、そのグラフの各ノードがコードエンティティを表す、プログラム間解析によって構築される。
CKGFuzzerは最先端技術と比較してコードカバレッジが平均8.73%向上した。
論文 参考訳(メタデータ) (2024-11-18T12:41:16Z) - Fixing Security Vulnerabilities with AI in OSS-Fuzz [9.730566646484304]
OSS-Fuzzは、オープンソースシステムの継続的な検証のための最も重要で広く使用されているインフラである。
セキュリティ脆弱性を修正するために、よく知られたAutoCodeRoverエージェントをカスタマイズします。
OSS-Fuzz脆弱性データを用いた経験から,LSMエージェントの自律性はセキュリティパッチの成功に有用であることがわかった。
論文 参考訳(メタデータ) (2024-11-03T16:20:32Z) - Pipe-Cleaner: Flexible Fuzzing Using Security Policies [0.07499722271664144]
Pipe-CleanerはCコードの脆弱性を検出し解析するシステムである。
これは、タグベースのランタイムリファレンスモニターによって強制されるフレキシブルな開発者設計のセキュリティポリシーに基づいている。
いくつかのヒープ関連のセキュリティ脆弱性に対して、このアプローチの可能性を実証する。
論文 参考訳(メタデータ) (2024-10-31T23:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。