論文の概要: KernelGPT: Enhanced Kernel Fuzzing via Large Language Models
- arxiv url: http://arxiv.org/abs/2401.00563v1
- Date: Sun, 31 Dec 2023 18:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 17:00:06.842771
- Title: KernelGPT: Enhanced Kernel Fuzzing via Large Language Models
- Title(参考訳): kernelgpt: 大規模言語モデルによるカーネルファジングの強化
- Authors: Chenyuan Yang, Zijie Zhao, Lingming Zhang
- Abstract要約: 本稿では,Syzkaller仕様をLarge Language Modelsを介して自動推論する最初のアプローチであるKernelGPTを提案する。
予備的な結果から、KernelGPTは、Syzkallerがより高いカバレッジを達成し、これまで知られていなかった複数のバグを見つけるのに役立ちます。
- 参考スコア(独自算出の注目度): 9.860752730040709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bugs in operating system kernels can affect billions of devices and users all
over the world. As a result, a large body of research has been focused on
kernel fuzzing, i.e., automatically generating syscall (system call) sequences
to detect potential kernel bugs or vulnerabilities. Syzkaller, one of the most
widely studied kernel fuzzers, aims to generate valid syscall sequences based
on predefined specifications written in syzlang, a domain-specific language for
defining syscalls, their arguments, and the relationships between them. While
there has been existing work trying to automate Syzkaller specification
generation, this still remains largely manual work and a large number of
important syscalls are still uncovered. In this paper, we propose KernelGPT,
the first approach to automatically inferring Syzkaller specifications via
Large Language Models (LLMs) for enhanced kernel fuzzing. Our basic insight is
that LLMs have seen massive kernel code, documentation, and use cases during
pre-training, and thus can automatically distill the necessary information for
making valid syscalls. More specifically, KernelGPT leverages an iterative
approach to automatically infer all the necessary specification components, and
further leverages the validation feedback to repair/refine the initial
specifications. Our preliminary results demonstrate that KernelGPT can help
Syzkaller achieve higher coverage and find multiple previously unknown bugs.
Moreover, we also received a request from the Syzkaller team to upstream
specifications inferred by KernelGPT.
- Abstract(参考訳): オペレーティングシステムカーネルのバグは、世界中の何十億ものデバイスやユーザに影響を与える可能性がある。
その結果、カーネルのファジング、すなわち潜在的なカーネルのバグや脆弱性を検出するためのsyscall(system call)シーケンスの自動生成に多くの研究が集中している。
syzkaller氏は最も広く研究されているカーネルファザーの1つで、syzlangで書かれた事前定義された仕様に基づいた有効なsyscallシーケンスの生成を目指している。
Syzkallerの仕様生成を自動化しようとする作業は以前からあったが、まだ手作業がほとんどであり、重要なsyscallが多数発見されている。
本稿では,カーネルファジィ化のためのLarge Language Models (LLM) を通じてSyzkaller仕様を自動推論する最初のアプローチであるKernelGPTを提案する。
我々の基本的な洞察は、llmは事前トレーニング中に大量のカーネルコード、ドキュメンテーション、ユースケースを見ていて、有効なsyscallを作成するのに必要な情報を自動的に抽出できるということです。
より具体的には、KernelGPTは必要なすべての仕様コンポーネントを自動推論するために反復的なアプローチを活用し、検証フィードバックを活用して初期仕様の修正/修正を行っている。
予備的な結果は、kernelgptがsyzkallerがより高いカバレッジを達成し、以前不明だった複数のバグを見つけるのに役立つことを示している。
さらに、我々はSyzkallerチームから、KernelGPTによって推測される上流仕様の要求を受け取りました。
関連論文リスト
- Optimal Kernel Tuning Parameter Prediction using Deep Sequence Models [0.44998333629984877]
本稿では,深部列列列モデルを用いて,計算カーネルを管理する最適チューニングパラメータを予測する手法を提案する。
提案アルゴリズムは、AMD機械学習プリミティブライブラリであるMIOpenにおいて、様々な畳み込みカーネル上で90%以上の精度を達成することができる。
論文 参考訳(メタデータ) (2024-04-15T22:25:54Z) - RLTrace: Synthesizing High-Quality System Call Traces for OS Fuzz Testing [10.644829779197341]
ファズOSカーネルのシードとして多種多様なシステムコールトレースを合成するために,RLTraceと呼ばれる深層強化学習ベースのソリューションを提案する。
モデルトレーニング中、ディープラーニングモデルはOSカーネルと相互作用し、最適なシステムコールトレースを推論する。
RLTraceは,より包括的なシステムコールトレースを生成することにより,他のシードジェネレータよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-04T06:46:00Z) - model-based script synthesis for fuzzing [10.739464605434977]
既存のアプローチは、トレースからのsyscallシーケンスやシステムコードの静的解析をモデル化することでカーネルを混乱させる。
我々は、異なるカーネル状態に到達するために、トレースされたsyscallシーケンスを学習し、変更するためのWinkFuzzを提案する。
論文 参考訳(メタデータ) (2023-08-08T08:07:50Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z) - Performance portability through machine learning guided kernel selection
in SYCL libraries [0.0]
汎用計算ライブラリは、ユーザが提供するすべての入力とパラメータに対応できなければならない。
機械学習の手法は、どちらの問題にも対処できる。
新しいハードウェアや問題のためにプロセスをチューニングしても、開発者の努力や専門知識は必要ない。
論文 参考訳(メタデータ) (2020-08-30T11:44:37Z) - Towards automated kernel selection in machine learning systems: A SYCL
case study [0.0]
本稿では,ライブラリに高性能なSYCLカーネルをデプロイするケーススタディにおいて,機械学習を用いてカーネルの選択を行う。
自動チューニングと機械学習を組み合わせることで、これらのカーネル選択プロセスは、新しいハードウェアで高いパフォーマンスを達成するための開発者の努力をほとんど必要とせずにデプロイできる。
論文 参考訳(メタデータ) (2020-03-15T11:23:36Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。