論文の概要: ConFL: Constraint-guided Fuzzing for Machine Learning Framework
- arxiv url: http://arxiv.org/abs/2307.05642v1
- Date: Tue, 11 Jul 2023 10:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 15:49:02.035715
- Title: ConFL: Constraint-guided Fuzzing for Machine Learning Framework
- Title(参考訳): confl: 機械学習フレームワークのための制約付きファジング
- Authors: Zhao Liu, Quanchen Zou, Tian Yu, Xuan Wang, Guozhu Meng, Kai Chen,
Deyue Zhang
- Abstract要約: 機械学習(ML)フレームワークのための制約誘導ファザであるConFLを提案する。
ConFLは、より多くのコード行をカバーし、最先端(SOTA)ファジィよりも有効な入力を生成することができる。
また、PyTorchとPaddleをテストするためにConFLを拡張しました。
- 参考スコア(独自算出の注目度): 14.702303319611985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning gains prominence in various sectors of society for
automated decision-making, concerns have risen regarding potential
vulnerabilities in machine learning (ML) frameworks. Nevertheless, testing
these frameworks is a daunting task due to their intricate implementation.
Previous research on fuzzing ML frameworks has struggled to effectively extract
input constraints and generate valid inputs, leading to extended fuzzing
durations for deep execution or revealing the target crash.
In this paper, we propose ConFL, a constraint-guided fuzzer for ML
frameworks. ConFL automatically extracting constraints from kernel codes
without the need for any prior knowledge. Guided by the constraints, ConFL is
able to generate valid inputs that can pass the verification and explore deeper
paths of kernel codes. In addition, we design a grouping technique to boost the
fuzzing efficiency.
To demonstrate the effectiveness of ConFL, we evaluated its performance
mainly on Tensorflow. We find that ConFL is able to cover more code lines, and
generate more valid inputs than state-of-the-art (SOTA) fuzzers. More
importantly, ConFL found 84 previously unknown vulnerabilities in different
versions of Tensorflow, all of which were assigned with new CVE ids, of which 3
were critical-severity and 13 were high-severity. We also extended ConFL to
test PyTorch and Paddle, 7 vulnerabilities are found to date.
- Abstract(参考訳): 機械学習が自動意思決定のために社会の様々な分野で注目されるようになるにつれ、機械学習(ML)フレームワークの潜在的な脆弱性に関する懸念が高まっている。
それでも、複雑な実装のため、これらのフレームワークをテストするのは大変な作業です。
ファジィングMLフレームワークに関するこれまでの研究は、入力制約を効果的に抽出し、有効な入力を生成するのに苦労している。
本稿では,MLフレームワーク用の制約誘導ファザであるConFLを提案する。
ConFLは、事前の知識を必要とせずに、カーネルコードから制約を自動的に抽出する。
制約によってガイドされたConFLは、検証をパスし、カーネルコードのより深いパスを探索できる有効な入力を生成することができる。
さらに,ファジリング効率を向上させるためにグループ化手法を設計する。
ConFLの有効性を実証するため, 主にTensorflowを用いて評価を行った。
ConFLは、より多くのコード行をカバーし、最先端(SOTA)ファジィよりも有効な入力を生成することができる。
さらに重要なことに、conflは以前不明だった84の脆弱性をtensorflowのさまざまなバージョンで発見し、それぞれに新しいcve idが割り当てられた。
また、PyTorchとPaddleをテストするためにConFLを拡張しました。
関連論文リスト
- FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - FuzzWiz -- Fuzzing Framework for Efficient Hardware Coverage [2.1626093085892144]
FuzzWizという自動ハードウェアファジリングフレームワークを作成しました。
RTL設計モジュールのパース、C/C++モデルへの変換、アサーション、リンク、ファジングによるジェネリックテストベンチの作成を含む。
ベンチマークの結果,従来のシミュレーション回帰手法の10倍の速度でカバー範囲の約90%を達成できた。
論文 参考訳(メタデータ) (2024-10-23T10:06:08Z) - ISC4DGF: Enhancing Directed Grey-box Fuzzing with LLM-Driven Initial Seed Corpus Generation [32.6118621456906]
ディレクトグレーボックスファジィング(DGF)は、特定の脆弱性に焦点を絞って必須となっている。
ISC4DGFはLarge Language Models (LLMs) を用いてDGFのための最適化された初期シードコーパスを生成する
ISC4DGFは35.63倍のスピードアップと616.10倍の目標到達を達成した。
論文 参考訳(メタデータ) (2024-09-22T06:27:28Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - FFN-SkipLLM: A Hidden Gem for Autoregressive Decoding with Adaptive Feed Forward Skipping [49.66872823080736]
自己回帰型大規模言語モデル(LLaMa, GPT)は、言語理解と生成において顕著な成功を収めている。
発生時に発生する過負荷を軽減するため、いくつかの早期退避および層下降戦略が提案されている。
本稿では,入力適応型フィードフォワードスキップ戦略であるFFN-SkipLLMを提案する。
論文 参考訳(メタデータ) (2024-04-05T02:35:43Z) - CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement
Learning for LLM-based Mutation [2.5864634852960444]
本稿では,大規模言語モデル(LLM)とカバレッジフィードバックからの強化学習を組み合わせた,CovRL(Coverage-guided Reinforcement Learning)と呼ばれる新しい手法を提案する。
CovRL-Fuzzは、39の既知の脆弱性と11のCVEを含む、最新のJavaScriptエンジンにおける48の実際のセキュリティ関連バグを特定している。
論文 参考訳(メタデータ) (2024-02-19T15:30:40Z) - A Quantitative and Qualitative Evaluation of LLM-Based Explainable Fault Localization [12.80414941523501]
AutoFLは、提案された障害位置とともに、バグの説明を生成する。
JavaとPythonの798の現実世界のバグの実験では、AutoFLはメソッドレベルのcc@1を、ベースライン上で最大233.3%改善した。
論文 参考訳(メタデータ) (2023-08-10T10:26:55Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - CodedPaddedFL and CodedSecAgg: Straggler Mitigation and Secure
Aggregation in Federated Learning [86.98177890676077]
本稿では, 階層化デバイスの効果を緩和する線形回帰のための2つの新しい符号付きフェデレーションラーニング手法を提案する。
最初のスキームであるCodedPaddedFLは、従来のFLのプライバシレベルを維持しながら、ストラグリングデバイスの効果を緩和する。
第2のスキームであるCodedSecAggは、モデル反転攻撃に対するストラグラーレジリエンスと堅牢性を提供する。
論文 参考訳(メタデータ) (2021-12-16T14:26:30Z) - Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating [159.48259714642447]
垂直拡張学習(VFL)は、多人数協調モデリングの要求とプライバシー漏洩の懸念により、注目を集めている。
我々は,vf$b2$を含む3つの新しいアルゴリズムを提案する新しいbftextlevel parallel architecture (vf$bfb2$)を提案する。
論文 参考訳(メタデータ) (2021-03-01T12:34:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。