論文の概要: LLM-Powered Silent Bug Fuzzing in Deep Learning Libraries via Versatile and Controlled Bug Transfer
- arxiv url: http://arxiv.org/abs/2602.23065v1
- Date: Thu, 26 Feb 2026 14:53:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.729347
- Title: LLM-Powered Silent Bug Fuzzing in Deep Learning Libraries via Versatile and Controlled Bug Transfer
- Title(参考訳): 深層学習用ライブラリにおけるLLMを利用したサイレントバグファジリング
- Authors: Kunpeng Zhang, Dongwei Xiao, Daoyuan Wu, Jiali Zhao, Yuanyi Lin, Tongtong Xu, Shaohua Wang, Shuai Wang,
- Abstract要約: 我々は、歴史的バグレポートには、サイレントバグに関する情報が豊富に活用されていないという観察に基づいて構築する。
我々は大規模言語モデル(LLM)を活用して、サイレントバグファジィのための多目的かつ制御されたバグ転送を行う。
これにより、既知のバグギーから機能的に類似したターゲットへ、リスクの高いコンテキストやオラクルの設計を移すことで、サイレントバグを積極的に検出することができる。
- 参考スコア(独自算出の注目度): 15.118579443741659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) libraries are widely used in critical applications, where even subtle silent bugs can lead to serious consequences. While existing DL fuzzing techniques have made progress in detecting crashes, they inherently struggle to detect silent bugs due to the lack of effective test programs and corresponding oracles. Building on the observation that historical bug reports contain rich, underutilized information about silent bugs, we leverage large language models (LLMs) to perform versatile yet controlled bug transfer for silent bug fuzzing. Specifically, our approach uses LLMs to extract context-aware bug patterns from historical issues, match semantically related Application Programming Interfaces (APIs) using functionality-based embeddings, and synthesize test cases with customized oracles. This enables proactive detection of silent bugs by transferring high-risk contexts and oracle designs from known buggy APIs to functionally similar target APIs. To ensure the reliability of our context-aware bug transfer, we introduce an LLM-powered self-validation module that systematically evaluates the validity of each transferred bug instance. We implement this methodology in a tool named TransFuzz and evaluate it on three mainstream DL libraries: PyTorch, TensorFlow, and MindSpore. TransFuzz successfully discovers 79 previously unknown bugs (12 confirmed as Common Vulnerabilities and Exposures (CVEs)) in 10 bug types, demonstrating its effectiveness and generalizability in migrating DL library bug discovery capabilities.
- Abstract(参考訳): ディープラーニング(DL)ライブラリは重要なアプリケーションで広く使われており、微妙な静かなバグでさえ深刻な結果をもたらす可能性がある。
既存のDLファジィング技術は、クラッシュを検出するのに進歩してきたが、それらは本質的に、効果的なテストプログラムの欠如とそれに対応するオラクルの欠如により、サイレントバグを検出するのに苦労している。
従来のバグレポートにはサイレントバグに関する情報が豊富に活用されていないことから,我々は大規模言語モデル(LLM)を活用して,サイレントバグファジィのための多目的かつ制御されたバグ転送を行う。
具体的には、LLMを使用して、歴史的問題からコンテキスト認識バグパターンを抽出し、機能ベースの埋め込みを使用してセマンティックに関連付けられたアプリケーションプログラミングインタフェース(API)とマッチングし、カスタマイズされたオークルでテストケースを合成する。
これにより、既知のバギーAPIから機能的に類似したターゲットAPIに、リスクの高いコンテキストやオラクル設計を移行することで、サイレントバグを積極的に検出することができる。
コンテキスト認識型バグ転送の信頼性を確保するため,各バグインスタンスの妥当性を体系的に評価する自己検証モジュールをLLMで導入した。
この方法論をTransFuzzという名前のツールで実装し、PyTorch、TensorFlow、MindSporeの3つの主要なDLライブラリで評価する。
TransFuzzは10種類のバグタイプで79の既知のバグ(CVE(Common Vulnerabilities and Exposures)として確認された12)を発見し、DLライブラリのバグ発見機能への移行の有効性と一般化性を実証した。
関連論文リスト
- BugPilot: Complex Bug Generation for Efficient Learning of SWE Skills [59.003563837981886]
高品質なバグは、次世代の言語モデルベースソフトウェアエンジニアリング(SWE)エージェントをトレーニングする鍵となる。
難易度および多種多様なバグを合成する新しい方法を提案する。
論文 参考訳(メタデータ) (2025-10-22T17:58:56Z) - May the Feedback Be with You! Unlocking the Power of Feedback-Driven Deep Learning Framework Fuzzing via LLMs [20.03968975178177]
ファズテスト(ファズテスト、fuzzing)は、ディープラーニング(DL)フレームワークのバグを見つけるための、シンプルで効果的な方法である。
本稿では,LLM(Large Language Model)とLLM(Generation LLM)という2つの大言語モデル(LLM)からなるフィードバック情報を効果的に活用するFUELを提案する。
FUELはPyTorchのラインコードカバレッジを改善し、最先端のベースラインよりも9.15%、14.70%向上できることを示す。
論文 参考訳(メタデータ) (2025-06-21T08:51:53Z) - Your Fix Is My Exploit: Enabling Comprehensive DL Library API Fuzzing with Large Language Models [49.214291813478695]
AIアプリケーションで広く使用されているディープラーニング(DL)ライブラリは、オーバーフローやバッファフリーエラーなどの脆弱性を含むことが多い。
従来のファジィングはDLライブラリの複雑さとAPIの多様性に悩まされている。
DLライブラリのためのLLM駆動ファジィ手法であるDFUZZを提案する。
論文 参考訳(メタデータ) (2025-01-08T07:07:22Z) - Subgraph-Oriented Testing for Deep Learning Libraries [9.78188667672054]
我々は,異なるハードウェアプラットフォーム上でディープラーニング(DL)ライブラリをテストするためのSORT(Subgraph-Oriented Realistic Testing)を提案する。
SORTは、テスト対象として、しばしばモデルグラフのサブグラフとして表現される、人気のあるAPIインタラクションパターンを採用している。
SORTは100%有効な入力生成率を実現し、既存のメソッドよりも精度の高いバグを検出し、シングルAPIテストで欠落したインタラクション関連のバグを明らかにする。
論文 参考訳(メタデータ) (2024-12-09T12:10:48Z) - The Seeds of the FUTURE Sprout from History: Fuzzing for Unveiling Vulnerabilities in Prospective Deep-Learning Libraries [14.260990784121423]
Futureは、新しく導入され、将来的なDLライブラリ用に調整された最初のユニバーサルファジィフレームワークである。
既存のライブラリからの履歴バグ情報と、特殊なコード生成のための微調整LDMを使用する。
バグ検出、バグ再現の成功率、コード生成の妥当性、APIカバレッジにおいて、既存のファジィアよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-12-02T09:33:28Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。