論文の概要: Does Programming Language Matter? An Empirical Study of Fuzzing Bug Detection
- arxiv url: http://arxiv.org/abs/2602.05312v1
- Date: Thu, 05 Feb 2026 05:08:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.767834
- Title: Does Programming Language Matter? An Empirical Study of Fuzzing Bug Detection
- Title(参考訳): プログラミング言語は重要か? ファジィバグ検出の実証的研究
- Authors: Tatsuya Shirai, Olivier Nourry, Yutaro Kashiwa, Kenji Fujiwara, Hajimu Iida,
- Abstract要約: 本研究では, ファジィバグの特徴と検出効率が言語間でどのように異なるかを調べるために, 大規模クロスランゲージ解析を行った。
初等言語に分類される559のOSS-Fuzzプロジェクトから61,444のファジィバグと99,248のビルドを分析した。
調査の結果,(i)C++とRustはファジィングバグ検出頻度が高く,(ii)RustとPythonは脆弱性比率が低いが,より重大な脆弱性を露呈する傾向があり,(iii)クラッシュタイプは言語によって異なり,再現不可能なバグがGoでは頻繁に発生するが,Rustではまれである。
- 参考スコア(独自算出の注目度): 0.0761187029699472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fuzzing has become a popular technique for automatically detecting vulnerabilities and bugs by generating unexpected inputs. In recent years, the fuzzing process has been integrated into continuous integration workflows (i.e., continuous fuzzing), enabling short and frequent testing cycles. Despite its widespread adoption, prior research has not examined whether the effectiveness of continuous fuzzing varies across programming languages. This study conducts a large-scale cross-language analysis to examine how fuzzing bug characteristics and detection efficiency differ among languages. We analyze 61,444 fuzzing bugs and 999,248 builds from 559 OSS-Fuzz projects categorized by primary language. Our findings reveal that (i) C++ and Rust exhibit higher fuzzing bug detection frequencies, (ii) Rust and Python show low vulnerability ratios but tend to expose more critical vulnerabilities, (iii) crash types vary across languages and unreproducible bugs are more frequent in Go but rare in Rust, and (iv) Python attains higher patch coverage but suffers from longer time-to-detection. These results demonstrate that fuzzing behavior and effectiveness are strongly shaped by language design, providing insights for language-aware fuzzing strategies and tool development.
- Abstract(参考訳): ファジィングは、予期しない入力を生成することで、脆弱性やバグを自動的に検出する一般的なテクニックになっている。
近年、ファジングプロセスは継続的インテグレーションワークフロー(継続的ファジング)に統合され、短時間かつ頻繁なテストサイクルを可能にしている。
広く普及しているにもかかわらず、従来の研究では、連続ファジリングの有効性がプログラミング言語によって異なるかどうかを検証していない。
本研究では, ファジィバグの特徴と検出効率が言語間でどのように異なるかを調べるために, 大規模クロスランゲージ解析を行った。
初等言語に分類される559のOSS-Fuzzプロジェクトから61,444のファジィバグと99,248のビルドを分析した。
私たちの発見は
i) C++とRustはファジィバグ検出頻度が高い。
(ii) RustとPythonの脆弱性比率は低いが、より重大な脆弱性を露呈する傾向がある。
(iii)クラッシュタイプは言語によって異なり、再現不可能なバグはGoでは頻繁に発生するが、Rustでは稀である。
(iv) Pythonはパッチカバレッジが向上するが、検出までの時間が長くなる。
これらの結果から,ファジィングの動作と有効性は言語設計によって強く形成され,言語対応ファジィング戦略やツール開発に対する洞察が得られた。
関連論文リスト
- Rust and Go directed fuzzing with LibAFL-DiFuzz [0.0]
Rust や Go のアプリケーションに特化して,ファジイングを指向する新たなアプローチを提案する。
LibAFL-DiFuzzバックエンドをベースとしたファジングツールは,競争上の優位性を示す。
論文 参考訳(メタデータ) (2026-01-30T09:52:50Z) - Discovering 100+ Compiler Defects in 72 Hours via LLM-Driven Semantic Logic Recomposition [15.27741331581011]
プログラム生成に機能を組み合わせたコンパイラファズーであるFeatureFuzzを提案する。
24時間にわたるキャンペーンで、FeatureFuzzは167のユニークなクラッシュを発見し、これは第2位のファザーより2.78倍高い。
72時間のファジィキャンペーンを通じて、FeatureFuzzはGCCとLLVMの113のバグを特定した。
論文 参考訳(メタデータ) (2026-01-18T11:33:45Z) - Large-Scale Empirical Analysis of Continuous Fuzzing: Insights from 1 Million Fuzzing Sessions [0.07183613290627339]
本研究の目的は,脆弱性検出における連続ファジィングの役割を明らかにすることである。
Googleが提供するオンラインサービスOSS-Fuzzから、イシューレポート、カバレッジレポート、ファジィログを収集します。
連続ファジィングが統合される前に、かなりの数のファジィングバグが存在することが明らかとなった。
論文 参考訳(メタデータ) (2025-10-18T10:13:19Z) - Enhancing Code Review through Fuzzing and Likely Invariants [13.727241655311664]
FuzzSightは、非クラッシングファジィ入力の潜在的な不変量を利用して、プログラムバージョン間での振る舞いの違いを強調するフレームワークである。
評価では、FuzzSightがレグレッションバグの75%、最大80%の脆弱性を24時間のファズリングによって発見しました。
論文 参考訳(メタデータ) (2025-10-17T10:30:22Z) - Can Prompting LLMs Unlock Hate Speech Detection across Languages? A Zero-shot and Few-shot Study [59.30098850050971]
この研究は、8つの非英語言語にわたるLLMのプロンプトに基づく検出を評価する。
実世界の評価セットのほとんどにおいて、ゼロショットと少数ショットが微調整エンコーダモデルに遅れを生じさせる一方で、ヘイトスピーチ検出のための関数的テストのより優れた一般化を実現していることを示す。
論文 参考訳(メタデータ) (2025-05-09T16:00:01Z) - FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - Fuzz4All: Universal Fuzzing with Large Language Models [26.559019384475846]
本稿では,ファズ4Allについて述べる。ファズ4Allは,多数の異なる入力言語を対象とし,それらの言語の特徴を多用できるという意味で普遍的なファズ4Allである。
テスト中の9つのシステム(C、C++、Go、SMT2、Java、Python)を入力として評価する。
この評価は、6言語すべてで、普遍的なファジィングは既存の言語固有のファジィよりも高いカバレッジを達成することを示している。
論文 参考訳(メタデータ) (2023-08-09T07:36:21Z) - A Static Evaluation of Code Completion by Large Language Models [65.18008807383816]
単純なプログラミング問題に対するモデル生成コードの機能的正当性を評価するために,実行ベースベンチマークが提案されている。
プログラムを実行せずにエラーを検出するlinterのような静的解析ツールは、コード生成モデルを評価するために十分に研究されていない。
抽象構文木を利用して,Pythonのコード補完における静的エラーを定量化する静的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T19:23:34Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。