論文の概要: LLM-Powered Silent Bug Fuzzing in Deep Learning Libraries via Versatile and Controlled Bug Transfer
- arxiv url: http://arxiv.org/abs/2602.23065v2
- Date: Fri, 27 Feb 2026 16:15:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 13:30:11.57342
- Title: LLM-Powered Silent Bug Fuzzing in Deep Learning Libraries via Versatile and Controlled Bug Transfer
- Title(参考訳): 深層学習用ライブラリにおけるLLMを利用したサイレントバグファジリング
- Authors: Kunpeng Zhang, Dongwei Xiao, Daoyuan Wu, Shuai Wang, Jiali Zhao, Yuanyi Lin, Tongtong Xu, Shaohua Wang,
- Abstract要約: 我々は、歴史的バグレポートには、サイレントバグに関する情報が豊富に活用されていないという観察に基づいて構築する。
我々は大規模言語モデル(LLM)を活用して、サイレントバグファジィのための多目的かつ制御されたバグ転送を行う。
これにより、既知のバグギーから機能的に類似したターゲットへ、リスクの高いコンテキストやオラクルの設計を移すことで、サイレントバグを積極的に検出することができる。
- 参考スコア(独自算出の注目度): 15.118579443741659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) libraries are widely used in critical applications, where even subtle silent bugs can lead to serious consequences. While existing DL fuzzing techniques have made progress in detecting crashes, they inherently struggle to detect silent bugs due to the lack of effective test programs and corresponding oracles. Building on the observation that historical bug reports contain rich, underutilized information about silent bugs, we leverage large language models (LLMs) to perform versatile yet controlled bug transfer for silent bug fuzzing. Specifically, our approach uses LLMs to extract context-aware bug patterns from historical issues, match semantically related Application Programming Interfaces (APIs) using functionality-based embeddings, and synthesize test cases with customized oracles. This enables proactive detection of silent bugs by transferring high-risk contexts and oracle designs from known buggy APIs to functionally similar target APIs. To ensure the reliability of our context-aware bug transfer, we introduce an LLM-powered self-validation module that systematically evaluates the validity of each transferred bug instance. We implement this methodology in a tool named TransFuzz and evaluate it on three mainstream DL libraries: PyTorch, TensorFlow, and MindSpore. TransFuzz successfully discovers 79 previously unknown bugs (12 confirmed as Common Vulnerabilities and Exposures (CVEs)) in 10 bug types, demonstrating its effectiveness and generalizability in migrating DL library bug discovery capabilities.
- Abstract(参考訳): ディープラーニング(DL)ライブラリは重要なアプリケーションで広く使われており、微妙な静かなバグでさえ深刻な結果をもたらす可能性がある。
既存のDLファジィング技術は、クラッシュを検出するのに進歩してきたが、それらは本質的に、効果的なテストプログラムの欠如とそれに対応するオラクルの欠如により、サイレントバグを検出するのに苦労している。
従来のバグレポートにはサイレントバグに関する情報が豊富に活用されていないことから,我々は大規模言語モデル(LLM)を活用して,サイレントバグファジィのための多目的かつ制御されたバグ転送を行う。
具体的には、LLMを使用して、歴史的問題からコンテキスト認識バグパターンを抽出し、機能ベースの埋め込みを使用してセマンティックに関連付けられたアプリケーションプログラミングインタフェース(API)とマッチングし、カスタマイズされたオークルでテストケースを合成する。
これにより、既知のバギーAPIから機能的に類似したターゲットAPIに、リスクの高いコンテキストやオラクル設計を移行することで、サイレントバグを積極的に検出することができる。
コンテキスト認識型バグ転送の信頼性を確保するため,各バグインスタンスの妥当性を体系的に評価する自己検証モジュールをLLMで導入した。
この方法論をTransFuzzという名前のツールで実装し、PyTorch、TensorFlow、MindSporeの3つの主要なDLライブラリで評価する。
TransFuzzは10種類のバグタイプで79の既知のバグ(CVE(Common Vulnerabilities and Exposures)として確認された12)を発見し、DLライブラリのバグ発見機能への移行の有効性と一般化性を実証した。
関連論文リスト
- BugPilot: Complex Bug Generation for Efficient Learning of SWE Skills [59.003563837981886]
高品質なバグは、次世代の言語モデルベースソフトウェアエンジニアリング(SWE)エージェントをトレーニングする鍵となる。
難易度および多種多様なバグを合成する新しい方法を提案する。
論文 参考訳(メタデータ) (2025-10-22T17:58:56Z) - What Do They Fix? LLM-Aided Categorization of Security Patches for Critical Memory Bugs [46.325755802511026]
我々は、LLM(Large Language Model)と細調整された小言語モデルに基づく2つのアプローチを統合するデュアルメタルパイプラインであるLMを開発した。
LMは、OOBまたはUAFの脆弱性に対処する最近のLinuxカーネルのパッチ5,140のうち111つを、手作業による検証によって90の正の正が確認された。
論文 参考訳(メタデータ) (2025-09-26T18:06:36Z) - Towards Automated Error Discovery: A Study in Conversational AI [48.735443116662026]
本稿では,会話型AIにおけるエラーの検出と定義のためのフレームワークであるAutomated Error Discoveryを紹介する。
また,その実装に対するエンコーダに基づくアプローチとして,SEEED(Soft Clustering Extended-Based Error Detection)を提案する。
論文 参考訳(メタデータ) (2025-09-13T14:53:22Z) - May the Feedback Be with You! Unlocking the Power of Feedback-Driven Deep Learning Framework Fuzzing via LLMs [20.03968975178177]
ファズテスト(ファズテスト、fuzzing)は、ディープラーニング(DL)フレームワークのバグを見つけるための、シンプルで効果的な方法である。
本稿では,LLM(Large Language Model)とLLM(Generation LLM)という2つの大言語モデル(LLM)からなるフィードバック情報を効果的に活用するFUELを提案する。
FUELはPyTorchのラインコードカバレッジを改善し、最先端のベースラインよりも9.15%、14.70%向上できることを示す。
論文 参考訳(メタデータ) (2025-06-21T08:51:53Z) - Your Fix Is My Exploit: Enabling Comprehensive DL Library API Fuzzing with Large Language Models [49.214291813478695]
AIアプリケーションで広く使用されているディープラーニング(DL)ライブラリは、オーバーフローやバッファフリーエラーなどの脆弱性を含むことが多い。
従来のファジィングはDLライブラリの複雑さとAPIの多様性に悩まされている。
DLライブラリのためのLLM駆動ファジィ手法であるDFUZZを提案する。
論文 参考訳(メタデータ) (2025-01-08T07:07:22Z) - Subgraph-Oriented Testing for Deep Learning Libraries [9.78188667672054]
我々は,異なるハードウェアプラットフォーム上でディープラーニング(DL)ライブラリをテストするためのSORT(Subgraph-Oriented Realistic Testing)を提案する。
SORTは、テスト対象として、しばしばモデルグラフのサブグラフとして表現される、人気のあるAPIインタラクションパターンを採用している。
SORTは100%有効な入力生成率を実現し、既存のメソッドよりも精度の高いバグを検出し、シングルAPIテストで欠落したインタラクション関連のバグを明らかにする。
論文 参考訳(メタデータ) (2024-12-09T12:10:48Z) - The Seeds of the FUTURE Sprout from History: Fuzzing for Unveiling Vulnerabilities in Prospective Deep-Learning Libraries [14.260990784121423]
Futureは、新しく導入され、将来的なDLライブラリ用に調整された最初のユニバーサルファジィフレームワークである。
既存のライブラリからの履歴バグ情報と、特殊なコード生成のための微調整LDMを使用する。
バグ検出、バグ再現の成功率、コード生成の妥当性、APIカバレッジにおいて、既存のファジィアよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-12-02T09:33:28Z) - CITADEL: Context Similarity Based Deep Learning Framework Bug Finding [37.985497279785235]
既存のDLフレームワークテストツールは非効率で、数百のテストケースを生成し、トリガのバグが少ない。
効率と有効性の観点からバグ発見を高速化する手法であるCitadelを提案する。
論文 参考訳(メタデータ) (2024-06-18T01:51:16Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。