論文の概要: LLM4Fuzz: Guided Fuzzing of Smart Contracts with Large Language Models
- arxiv url: http://arxiv.org/abs/2401.11108v1
- Date: Sat, 20 Jan 2024 04:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:52:26.171040
- Title: LLM4Fuzz: Guided Fuzzing of Smart Contracts with Large Language Models
- Title(参考訳): LLM4Fuzz: 大規模言語モデルによるスマートコントラクトのガイドファズ
- Authors: Chaofan Shou, Jing Liu, Doudou Lu, Koushik Sen
- Abstract要約: 本稿では,自動スマートコントラクトセキュリティ分析を最適化するLLM4Fuzzを紹介する。
大規模な言語モデル(LLM)を使用して、ファジィキャンペーンをインテリジェントにガイドし、優先順位付けする。
評価の結果、効率性、カバレッジ、脆弱性検出が大幅に向上した。
- 参考スコア(独自算出の注目度): 7.833199151422389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As blockchain platforms grow exponentially, millions of lines of smart
contract code are being deployed to manage extensive digital assets. However,
vulnerabilities in this mission-critical code have led to significant
exploitations and asset losses. Thorough automated security analysis of smart
contracts is thus imperative. This paper introduces LLM4Fuzz to optimize
automated smart contract security analysis by leveraging large language models
(LLMs) to intelligently guide and prioritize fuzzing campaigns. While
traditional fuzzing suffers from low efficiency in exploring the vast state
space, LLM4Fuzz employs LLMs to direct fuzzers towards high-value code regions
and input sequences more likely to trigger vulnerabilities. Additionally,
LLM4Fuzz can leverage LLMs to guide fuzzers based on user-defined invariants,
reducing blind exploration overhead. Evaluations of LLM4Fuzz on real-world DeFi
projects show substantial gains in efficiency, coverage, and vulnerability
detection compared to baseline fuzzing. LLM4Fuzz also uncovered five critical
vulnerabilities that can lead to a loss of more than $247k.
- Abstract(参考訳): ブロックチェーンプラットフォームが指数関数的に成長するにつれて、大規模なデジタル資産を管理するために数百万行のスマートコントラクトコードがデプロイされている。
しかし、このミッションクリティカルなコードの脆弱性は、かなりの搾取と資産損失をもたらした。
したがって、スマートコントラクトの自動セキュリティ分析は必須である。
本稿では,大規模言語モデル(llm)を活用して,自動スマートコントラクトセキュリティ解析を最適化するために,llm4fuzzを提案する。
従来のファジィングは、広い状態空間を探索する際の低効率に悩まされているが、LSM4ファジィは、ファジィを高価値のコード領域や入力シーケンスに向けるLLMを使っている。
加えて、LLM4Fuzz は LLM を利用してユーザ定義不変量に基づいてファズーをガイドし、ブラインド探索のオーバーヘッドを減らすことができる。
実世界のdefiプロジェクトにおけるllm4fuzzの評価は、ベースラインのファジングと比べて効率、カバレッジ、脆弱性検出の大幅な向上を示している。
LLM4Fuzzはまた、5つの重大な脆弱性を発見し、247万ドル以上の損失を招いた。
関連論文リスト
- Smart-LLaMA: Two-Stage Post-Training of Large Language Models for Smart Contract Vulnerability Detection and Explanation [21.39496709865097]
既存のスマートコントラクトの脆弱性検出方法は3つの大きな問題に直面している。
データセットの十分な品質、詳細な説明と正確な脆弱性位置の欠如。
LLaMA言語モデルに基づく高度な検出手法であるSmart-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-11-09T15:49:42Z) - Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [63.603861880022954]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - ANVIL: Anomaly-based Vulnerability Identification without Labelled Training Data [5.938113434208745]
教師付き学習ベースのソフトウェア脆弱性検出装置は、ラベル付きトレーニングデータの不十分な可用性のために、しばしば不足する。
本稿では,脆弱性検出を異常検出の1つとして再検討する。
我々のアプローチは、ラインレベルの脆弱性検出タスクにおいて、1.62times$から2.18times$より優れたトップ5アキュラシー、1.02times$から1.29times$より優れたROCスコアを達成する。
論文 参考訳(メタデータ) (2024-08-28T03:28:17Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - CyberSecEval 2: A Wide-Ranging Cybersecurity Evaluation Suite for Large Language Models [6.931433424951554]
大規模言語モデル(LLM)は新たなセキュリティリスクを導入するが、これらのリスクを計測し、削減するための包括的な評価スイートはほとんどない。
LLMのセキュリティリスクと能力を定量化する新しいベンチマークであるBenchmarkNameを提案する。
我々は,GPT-4,Mistral,Meta Llama 370B-Instruct,Code Llamaを含む複数のSOTA (State-of-the-art) LLMを評価した。
論文 参考訳(メタデータ) (2024-04-19T20:11:12Z) - An Insight into Security Code Review with LLMs: Capabilities, Obstacles and Influential Factors [9.309745288471374]
セキュリティコードレビューは時間と労力を要するプロセスです。
既存のセキュリティ分析ツールは、一般化の貧弱、偽陽性率の高い、粗い検出粒度に悩まされている。
大きな言語モデル(LLM)は、これらの課題に対処するための有望な候補と考えられている。
論文 参考訳(メタデータ) (2024-01-29T17:13:44Z) - How Far Have We Gone in Vulnerability Detection Using Large Language
Models [15.09461331135668]
包括的な脆弱性ベンチマークであるVulBenchを紹介します。
このベンチマークは、幅広いCTF課題と実世界のアプリケーションから高品質なデータを集約する。
いくつかのLSMは、脆弱性検出における従来のディープラーニングアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-21T08:20:39Z) - Do-Not-Answer: A Dataset for Evaluating Safeguards in LLMs [59.596335292426105]
本稿では,大規模な言語モデルにおけるセーフガードを評価するための,最初のオープンソースデータセットを収集する。
我々は、自動安全性評価において、GPT-4に匹敵する結果を得るために、BERTライクな分類器をいくつか訓練する。
論文 参考訳(メタデータ) (2023-08-25T14:02:12Z) - On Evaluating Adversarial Robustness of Large Vision-Language Models [64.66104342002882]
大規模視覚言語モデル(VLM)のロバスト性を,最も現実的で高リスクな環境で評価する。
特に,CLIP や BLIP などの事前学習モデルに対して,まず攻撃対象のサンプルを作成する。
これらのVLM上のブラックボックスクエリは、ターゲットの回避の効果をさらに向上させることができる。
論文 参考訳(メタデータ) (2023-05-26T13:49:44Z) - Large Language Models are Not Yet Human-Level Evaluators for Abstractive
Summarization [66.08074487429477]
抽象的な要約のための自動評価器として,大規模言語モデル(LLM)の安定性と信頼性について検討する。
また、ChatGPTとGPT-4は、一般的に使われている自動測定値よりも優れていますが、人間の代替品として準備ができていません。
論文 参考訳(メタデータ) (2023-05-22T14:58:13Z) - Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard
Security Attacks [67.86285142381644]
命令追従型大規模言語モデルの最近の進歩は、悪意のある目的のために二重使用リスクを増幅する。
命令追従機能がコンピュータセキュリティの標準的な攻撃を可能にするため、デュアルユースを防ぐのは難しい。
本研究では,LLMがヘイトスピーチや詐欺などの悪意のあるコンテンツをターゲットにすることができることを示す。
論文 参考訳(メタデータ) (2023-02-11T15:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。