論文の概要: LLM-Assisted Model-Based Fuzzing of Protocol Implementations
- arxiv url: http://arxiv.org/abs/2508.01750v1
- Date: Sun, 03 Aug 2025 13:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 19:13:40.248824
- Title: LLM-Assisted Model-Based Fuzzing of Protocol Implementations
- Title(参考訳): LLMによるプロトコル実装のモデルベースファジリング
- Authors: Changze Huang, Di Wang, Zhi Quan Zhou,
- Abstract要約: プロトコル動作の障害は脆弱性やシステム障害につながる可能性がある。
プロトコルテストに対する一般的なアプローチは、プロトコルの状態遷移と期待される振る舞いをキャプチャするマルコフモデルを構築することである。
本稿では,大規模言語モデル(LLM)を利用して,ネットワークプロトコルの実装をテストするためのシーケンスを自動的に生成する手法を提案する。
- 参考スコア(独自算出の注目度): 9.512044399020514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Testing network protocol implementations is critical for ensuring the reliability, security, and interoperability of distributed systems. Faults in protocol behavior can lead to vulnerabilities and system failures, especially in real-time and mission-critical applications. A common approach to protocol testing involves constructing Markovian models that capture the state transitions and expected behaviors of the protocol. However, building such models typically requires significant domain expertise and manual effort, making the process time-consuming and difficult to scale across diverse protocols and implementations. We propose a novel method that leverages large language models (LLMs) to automatically generate sequences for testing network protocol implementations. Our approach begins by defining the full set of possible protocol states, from which the LLM selects a subset to model the target implementation. Using this state-based model, we prompt the LLM to generate code that produces sequences of states. This program serves as a protocol-specific sequences generator. The sequences generator then generates test inputs to call the protocol implementation under various conditions. We evaluated our approach on three widely used network protocol implementations and successfully identified 12 previously unknown vulnerabilities. We have reported them to the respective developers for confirmation. This demonstrates the practical effectiveness of our LLM-assisted fuzzing framework in uncovering real-world security issues.
- Abstract(参考訳): ネットワークプロトコルの実装をテストすることは、分散システムの信頼性、セキュリティ、相互運用性を保証するために重要である。
プロトコル動作の障害は、特にリアルタイムおよびミッションクリティカルなアプリケーションにおいて、脆弱性やシステム障害につながる可能性がある。
プロトコルテストに対する一般的なアプローチは、プロトコルの状態遷移と期待される振る舞いをキャプチャするマルコフモデルを構築することである。
しかし、そのようなモデルを構築するには、一般的にかなりのドメインの専門知識と手作業が必要です。
本稿では,大規模言語モデル(LLM)を利用して,ネットワークプロトコルの実装をテストするためのシーケンスを自動的に生成する手法を提案する。
我々のアプローチは、LLMがターゲットの実装をモデル化するためにサブセットを選択する可能性のあるプロトコル状態の完全なセットを定義することから始まります。
この状態ベースモデルを用いて、LLMに状態列を生成するコードを生成するよう促す。
このプログラムはプロトコル固有のシーケンスジェネレータとして機能する。
シーケンスジェネレータは、様々な条件下でプロトコル実装を呼び出すテスト入力を生成する。
我々は,広く使用されている3つのネットワークプロトコル実装に対するアプローチを評価し,これまで不明であった12の脆弱性の特定に成功した。
確認のために各開発者に報告しました。
このことは,現実のセキュリティ問題を明らかにする上で,LLM支援ファジィングフレームワークの実用的有効性を示すものである。
関連論文リスト
- ProtocolLLM: RTL Benchmark for SystemVerilog Generation of Communication Protocols [45.66401695351214]
本稿では,広く使用されているSystemVerilogプロトコルを対象とした最初のベンチマークスイートであるProtocolLLMを紹介する。
我々は,ほとんどのモデルがタイミング制約に従う通信プロトコルのSystemVerilogコードを生成するのに失敗したことを観察する。
論文 参考訳(メタデータ) (2025-06-09T17:10:47Z) - ModelForge: Using GenAI to Improve the Development of Security Protocols [1.9241821314180376]
プロトコル仕様の翻訳を自動化する新しいツールであるModelForgeを紹介する。
自然言語処理(NLP)と生成AI(GenAI)の進歩を活用することで、ModelForgeはプロトコル仕様を処理し、CPSAプロトコル定義を生成する。
論文 参考訳(メタデータ) (2025-06-08T06:27:09Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z) - Games for AI Control: Models of Safety Evaluations of AI Deployment Protocols [52.40622903199512]
本稿では,多目的かつ部分的に観察可能なゲームとして,AI-Control Gamesを紹介した。
我々は、信頼できない言語モデルをプログラミングアシスタントとしてデプロイするためのプロトコルをモデル化、評価、合成するために、フォーマリズムを適用した。
論文 参考訳(メタデータ) (2024-09-12T12:30:07Z) - Unleashing the Power of LLM to Infer State Machine from the Protocol Implementation [21.420421792087225]
本稿では,Large Language Models (LLMs) を用いた新しい状態マシン推論手法であるProtocolGPTを提案する。
提案手法は90%以上の精度を達成し, ベースラインを30%以上上回った。
プロトコルファジィングとアプローチを統合することで、カバレッジが20%以上向上し、2つの0日間の脆弱性が明らかになった。
論文 参考訳(メタデータ) (2024-05-01T08:46:36Z) - DT-SIM: Property-Based Testing for MPC Security [2.0308771704846245]
プロパティベースのテストはセキュアプロトコルのセキュリティバグの検出に有効である。
セキュアマルチパーティ計算(MPC)を特に対象とする。
MPCプロトコルのビットレベル実装において,様々な欠陥を検出するテストを作成する。
論文 参考訳(メタデータ) (2024-03-08T02:02:24Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - OLYMPIA: A Simulation Framework for Evaluating the Concrete Scalability of Secure Aggregation Protocols [1.8069913326395433]
シミュレーションによるセキュアプロトコルの実証評価のためのフレームワークであるOLYMPIAを提案する。
OLYMPIAはプロトコルを定義するための組み込みドメイン固有言語と、パフォーマンスを評価するためのシミュレーションフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-20T16:46:46Z) - Towards Semantic Communication Protocols: A Probabilistic Logic
Perspective [69.68769942563812]
我々は,NPMを確率論理型言語ProbLogで記述された解釈可能なシンボルグラフに変換することによって構築された意味プロトコルモデル(SPM)を提案する。
その解釈性とメモリ効率を利用して、衝突回避のためのSPM再構成などのいくつかの応用を実演する。
論文 参考訳(メタデータ) (2022-07-08T14:19:36Z) - Data post-processing for the one-way heterodyne protocol under
composable finite-size security [62.997667081978825]
本研究では,実用的連続可変(CV)量子鍵分布プロトコルの性能について検討する。
ヘテロダイン検出を用いたガウス変調コヒーレント状態プロトコルを高信号対雑音比で検討する。
これにより、プロトコルの実践的な実装の性能を調べ、上記のステップに関連付けられたパラメータを最適化することができる。
論文 参考訳(メタデータ) (2022-05-20T12:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。