論文の概要: deepSURF: Detecting Memory Safety Vulnerabilities in Rust Through Fuzzing LLM-Augmented Harnesses
- arxiv url: http://arxiv.org/abs/2506.15648v1
- Date: Wed, 18 Jun 2025 17:18:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.758288
- Title: deepSURF: Detecting Memory Safety Vulnerabilities in Rust Through Fuzzing LLM-Augmented Harnesses
- Title(参考訳): DeepSURF: LLM拡張されたハーネスをファジングすることでRustのメモリ安全性の脆弱性を検出する
- Authors: Georgios Androutsopoulos, Antonio Bianchi,
- Abstract要約: Rustはメモリ安全性をデフォルトで保証するが、安全でないコードの使用も許可している。
本稿では,Large Language Model (LLM) を用いたファジングハーネス生成と静的解析を統合したDeepSURFを提案する。
私たちは、27の現実世界のRustクレート上でDeepSURFを評価し、既知の20のメモリ安全性バグを再発見し、これまで知らなかった6つの脆弱性を明らかにしました。
- 参考スコア(独自算出の注目度): 8.093479682590825
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although Rust ensures memory safety by default, it also permits the use of unsafe code, which can introduce memory safety vulnerabilities if misused. Unfortunately, existing tools for detecting memory bugs in Rust typically exhibit limited detection capabilities, inadequately handle Rust-specific types, or rely heavily on manual intervention. To address these limitations, we present deepSURF, a tool that integrates static analysis with Large Language Model (LLM)-guided fuzzing harness generation to effectively identify memory safety vulnerabilities in Rust libraries, specifically targeting unsafe code. deepSURF introduces a novel approach for handling generics by substituting them with custom types and generating tailored implementations for the required traits, enabling the fuzzer to simulate user-defined behaviors within the fuzzed library. Additionally, deepSURF employs LLMs to augment fuzzing harnesses dynamically, facilitating exploration of complex API interactions and significantly increasing the likelihood of exposing memory safety vulnerabilities. We evaluated deepSURF on 27 real-world Rust crates, successfully rediscovering 20 known memory safety bugs and uncovering 6 previously unknown vulnerabilities, demonstrating clear improvements over state-of-the-art tools.
- Abstract(参考訳): Rustはメモリ安全性をデフォルトで保証するが、安全でないコードの使用も許可している。
残念ながら、Rustのメモリバグを検出する既存のツールは、通常は限定的な検出機能を示し、Rust固有の型を適切に扱えず、手作業による介入に大きく依存している。
これらの制限に対処するため、DeepSURFは、静的解析とLarge Language Model (LLM)誘導ファジィ・ハーネス生成を統合し、Rustライブラリのメモリ安全性の脆弱性を効果的に識別するツールである。
DeepSURFは、ジェネリクスをカスタムタイプに置換し、必要な特性をカスタマイズした実装を生成することによって、ファジィがファジィライブラリ内でユーザ定義の振る舞いをシミュレートできるようにする、新しいアプローチを導入している。
さらに、DeepSURFはLLMを使用してファジィハーネスを動的に強化し、複雑なAPIインタラクションの探索を促進し、メモリ安全性の脆弱性を暴露する可能性を大幅に高める。
私たちは、27の現実のRustクレート上でDeepSURFを評価し、既知の20のメモリ安全性バグを再発見し、6つの既知の脆弱性を発見し、最先端ツールに対する明確な改善を実証しました。
関連論文リスト
- Targeted Fuzzing for Unsafe Rust Code: Leveraging Selective Instrumentation [3.6968220664227633]
Rustは、ユーザビリティとセキュリティに焦点を当てた、有望なプログラミング言語である。
プログラマは、厳格なRustセキュリティポリシーに従わない、安全でないコードを書くことができる。
ファジィアが注目すべきプログラムのどの部分にフォーカスするかを決定するために、安全で安全なコードコンポーネントを自動的に検出する手法を提案する。
論文 参考訳(メタデータ) (2025-05-05T08:48:42Z) - CRUST-Bench: A Comprehensive Benchmark for C-to-safe-Rust Transpilation [63.23120252801889]
CRUST-Benchは100のCリポジトリのデータセットで、それぞれが安全なRustとテストケースで手書きのインターフェースとペアリングされている。
我々は、このタスクで最先端の大規模言語モデル(LLM)を評価し、安全で慣用的なRust生成が依然として難しい問題であることを確認した。
最高のパフォーマンスモデルであるOpenAI o1は、ワンショット設定で15タスクしか解決できない。
論文 参考訳(メタデータ) (2025-04-21T17:33:33Z) - HALURust: Exploiting Hallucinations of Large Language Models to Detect Vulnerabilities in Rust [5.539291692976558]
2018年以降、442のRust関連の脆弱性が現実世界のアプリケーションで報告されている。
本稿では,大規模言語モデル(LLM)の幻覚を利用して,現実のRustシナリオの脆弱性を検出する新しいフレームワークであるHALURustを紹介する。
HALURustは、54のアプリケーションにまたがる447の関数と18,691行のコードを含む、81の現実世界の脆弱性のデータセットで評価された。
論文 参考訳(メタデータ) (2025-03-13T18:38:34Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and Limitations [76.19419888353586]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - Fast Summary-based Whole-program Analysis to Identify Unsafe Memory Accesses in Rust [23.0568924498396]
Rustは40年以上にわたって低レベルのソフトウェアに悩まされてきたメモリ安全性問題を解決する最も有望なシステムプログラミング言語の1つである。
アンセーフなRustコードと直接リンクされたアンセーフな外部ライブラリは、メモリ安全違反自体を導入するだけでなく、セーフなRustと同じモノリシックなアドレス空間で実行されるプログラム全体を侵害する可能性がある。
我々は、安全でないヒープの割り当てと、それらの安全でないヒープオブジェクトへのメモリアクセスの両方を識別するためのプログラム全体をプロトタイプ化した。
論文 参考訳(メタデータ) (2023-10-16T11:34:21Z) - Safe Deep Reinforcement Learning by Verifying Task-Level Properties [84.64203221849648]
コスト関数は、安全深層強化学習(DRL)において一般的に用いられる。
このコストは通常、国家空間における政策決定のリスクの定量化が難しいため、指標関数として符号化される。
本稿では,ドメイン知識を用いて,そのような状態に近接するリスクを定量化するための代替手法について検討する。
論文 参考訳(メタデータ) (2023-02-20T15:24:06Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Unsafe's Betrayal: Abusing Unsafe Rust in Binary Reverse Engineering
toward Finding Memory-safety Bugs via Machine Learning [20.68333298047064]
Rustは、プログラミングにおけるメモリセーフなバグを避けるために、メモリセーフなメカニズムを提供する。
Rustのユーザビリティを高めるアンセーフコードは、メモリセーフなバグを見つけるための明確な場所を提供する。
これらの安全でないスポットは、マシンラーニングを介してRustバイナリコードで識別可能である、と私たちは主張しています。
論文 参考訳(メタデータ) (2022-10-31T19:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。