論文の概要: Security Knowledge-Guided Fuzzing of Deep Learning Libraries
- arxiv url: http://arxiv.org/abs/2306.03269v2
- Date: Sun, 24 Dec 2023 23:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 22:47:38.046204
- Title: Security Knowledge-Guided Fuzzing of Deep Learning Libraries
- Title(参考訳): 深層学習ライブラリのセキュリティ知識に基づくファジング
- Authors: Nima Shiri Harzevili, Mohammad Mahdi Mohajer, Moshi Wei, Hung Viet
Pham, Song Wang
- Abstract要約: そこで我々は,Orionという新しいディープラーニングファザを提案する。
Orionはファジィルールのセットに基づいて、ガイドされたテスト入力生成とコーナーケーステスト入力生成を組み合わせる。
- 参考スコア(独自算出の注目度): 9.930638894226004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many Deep Learning fuzzers have been proposed for testing of DL
libraries. However, they either perform unguided input generation (e.g., not
considering the relationship between API arguments when generating inputs) or
only support a limited set of corner case test inputs. Furthermore, a
substantial number of developer APIs crucial for library development remain
untested, as they are typically not well-documented and lack clear usage
guidelines.
To fill this gap, we propose a novel fuzzer named Orion, which combines
guided test input generation and corner case test input generation based on a
set of fuzzing rules constructed from historical data that is known to trigger
vulnerabilities in the implementation of DL APIs. To extract the fuzzing rules,
we first conduct an empirical study regarding the root cause analysis of 376
vulnerabilities in two of the most popular DL libraries, i.e., PyTorch and
TensorFlow. We then construct the rules based on the root causes of the
historical vulnerabilities.
Our evaluation shows that Orion reports 135 vulnerabilities on the latest
releases of TensorFlow and PyTorch, 76 of which were confirmed by the library
developers. Among the 76 confirmed vulnerabilities, 69 are previously unknown,
and 7 have already been fixed. The rest are awaiting further confirmation.
Regarding end-user APIs, Orion was able to detect 31.8% and 90% more
vulnerabilities on TensorFlow and PyTorch, respectively, compared to the
state-of-the-art conventional fuzzer, i.e., DeepRel. When compared to the
state-of-the-art LLM-based DL fuzzer, AtlasFuzz, Orion detected 13.63% more
vulnerabilities on TensorFlow and 18.42% more vulnerabilities on PyTorch.
Regarding developer APIs, Orion stands out by detecting 117% more
vulnerabilities on TensorFlow and 100% more vulnerabilities on PyTorch compared
to the most relevant fuzzer designed for developer APIs, such as FreeFuzz.
- Abstract(参考訳): 近年,DLライブラリのテストには多くのDeep Learningファズーが提案されている。
しかしながら、ガイドなしの入力生成(例えば、入力を生成する際のapi引数間の関係を考慮しない)か、限定されたコーナーケーステスト入力のみをサポートする。
さらに、ライブラリ開発に不可欠な開発者apiは、一般的に十分に文書化されておらず、明確な使用ガイドラインを欠いているため、まだテストされていない。
このギャップを埋めるために,DL APIの実装において脆弱性を引き起こすことが知られている履歴データから構築されたファジィングルールに基づいて,ガイド付きテスト入力生成とコーナーケーステスト入力生成を組み合わせた新しいファジィザOrionを提案する。
ファジィングルールを抽出するために、我々はまず、最も人気のあるDLライブラリであるPyTorchとTensorFlowの2つにおいて、376の脆弱性の根本原因分析に関する実証的研究を行った。
次に、歴史的脆弱性の根本原因に基づいたルールを構築する。
我々の評価によると、OrionはTensorFlowとPyTorchの最新リリースで135の脆弱性を報告しており、そのうち76がライブラリ開発者によって確認されている。
76の脆弱性のうち、69は以前不明であり、7はすでに修正されている。
残りはさらなる確認を待っている。
エンドユーザAPIに関して、Orionは、最新技術であるDeepRelと比較して、TensorFlowとPyTorchの脆弱性をそれぞれ31.8%、90%検出することができた。
最先端のLDMベースのDLファザと比較すると、AtlasFuzz、OrionはTensorFlowの脆弱性を13.63%、PyTorchの脆弱性を18.42%検出した。
開発者apiに関しては、freefuzzなど開発者api用に設計された最も関連性の高いfuzzerに比べて、tensorflowの117%、pytorchの100%の脆弱性を検出することで、orionが際立っている。
関連論文リスト
- LlamaRestTest: Effective REST API Testing with Small Language Models [50.058600784556816]
LlamaRestTestは、2つのカスタムLCMを使って現実的なテストインプットを生成する新しいアプローチである。
LlamaRestTestは、RESTGPTで強化された仕様でさえ、コードカバレッジとエラー検出において最先端のツールを上回っている。
論文 参考訳(メタデータ) (2025-01-15T05:51:20Z) - Your Fix Is My Exploit: Enabling Comprehensive DL Library API Fuzzing with Large Language Models [49.214291813478695]
AIアプリケーションで広く使用されているディープラーニング(DL)ライブラリは、オーバーフローやバッファフリーエラーなどの脆弱性を含むことが多い。
従来のファジィングはDLライブラリの複雑さとAPIの多様性に悩まされている。
DLライブラリのためのLLM駆動ファジィ手法であるDFUZZを提案する。
論文 参考訳(メタデータ) (2025-01-08T07:07:22Z) - Subgraph-Oriented Testing for Deep Learning Libraries [9.78188667672054]
我々は,異なるハードウェアプラットフォーム上でディープラーニング(DL)ライブラリをテストするためのSORT(Subgraph-Oriented Realistic Testing)を提案する。
SORTは、テスト対象として、しばしばモデルグラフのサブグラフとして表現される、人気のあるAPIインタラクションパターンを採用している。
SORTは100%有効な入力生成率を実現し、既存のメソッドよりも精度の高いバグを検出し、シングルAPIテストで欠落したインタラクション関連のバグを明らかにする。
論文 参考訳(メタデータ) (2024-12-09T12:10:48Z) - The Seeds of the FUTURE Sprout from History: Fuzzing for Unveiling Vulnerabilities in Prospective Deep-Learning Libraries [14.260990784121423]
Futureは、新しく導入され、将来的なDLライブラリ用に調整された最初のユニバーサルファジィフレームワークである。
既存のライブラリからの履歴バグ情報と、特殊なコード生成のための微調整LDMを使用する。
バグ検出、バグ再現の成功率、コード生成の妥当性、APIカバレッジにおいて、既存のファジィアよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-12-02T09:33:28Z) - Discovery of Timeline and Crowd Reaction of Software Vulnerability Disclosures [47.435076500269545]
Apache Log4Jはリモートコード実行攻撃に対して脆弱であることが判明した。
35,000以上のパッケージが最新バージョンでLog4Jライブラリをアップデートせざるを得なかった。
ソフトウェアベンダが脆弱性のないバージョンをリリースするたびに、ソフトウェア開発者がサードパーティのライブラリを更新するのは、事実上妥当です。
論文 参考訳(メタデータ) (2024-11-12T01:55:51Z) - Benchmarking Deep Learning Fuzzers [11.118370064698869]
ベンチマークでは、最先端の3つのDLファザ、FreeFuzz、DeepRel、DocTerを、その命令に従って実行します。
これらのファジィザは、ベンチマークデータセットで収集された多くの実際のバグを検出することができません。
我々の系統分析では、これらのファジッターが実際のバグを検知する能力に影響を及ぼす4つの主要な、広く、共通の要因を同定する。
論文 参考訳(メタデータ) (2023-10-10T18:09:16Z) - On the Security Blind Spots of Software Composition Analysis [46.1389163921338]
Mavenリポジトリで脆弱性のあるクローンを検出するための新しいアプローチを提案する。
Maven Centralから53万以上の潜在的な脆弱性のあるクローンを検索します。
検出された727個の脆弱なクローンを検出し、それぞれに検証可能な脆弱性証明プロジェクトを合成する。
論文 参考訳(メタデータ) (2023-06-08T20:14:46Z) - EDEFuzz: A Web API Fuzzer for Excessive Data Exposures [3.5061201620029885]
Excessive Data Exposure(EDE)は2019年で3番目に重大なAPI脆弱性である。
このような問題を効果的に発見し、修正する自動化ツールが、研究や業界でもほとんどありません。
EDEFuzzと呼ばれる最初のファジィツールを構築し、EDEを体系的に検出します。
論文 参考訳(メタデータ) (2023-01-23T04:05:08Z) - REaaS: Enabling Adversarially Robust Downstream Classifiers via Robust
Encoder as a Service [67.0982378001551]
サービスプロバイダがエンコーダを事前トレーニングして、クラウドサービスAPIとしてデプロイする方法を示します。
クライアントはクラウドサービスAPIに問い合わせて、トレーニング/テスト入力のフィーチャーベクタを取得する。
私たちは、クライアントが下流の分類器の堅牢性を証明できるように、クラウドサービスが2つのAPIを提供する必要があることを示しています。
論文 参考訳(メタデータ) (2023-01-07T17:40:11Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。