論文の概要: INSTILLER: Towards Efficient and Realistic RTL Fuzzing
- arxiv url: http://arxiv.org/abs/2401.15967v1
- Date: Mon, 29 Jan 2024 08:53:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 16:52:17.373510
- Title: INSTILLER: Towards Efficient and Realistic RTL Fuzzing
- Title(参考訳): INSTILLER:効率的かつリアルなRTLファジリングを目指して
- Authors: Gen Zhang, Pengfei Wang, Tai Yue, Danjun Liu, Yubei Guo and Kai Lu
- Abstract要約: INSTILLER (Instruction Distiller) は、アリコロニー最適化(ACO)に基づくRTLファザである。
ACO(VACO)の変種で入力命令を蒸留する。
我々はプロトタイプを実装し、実世界のターゲットCPUコアにおける最先端ファジィ処理に対する広範な実験を行う。
- 参考スコア(独自算出の注目度): 14.012341278678788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bugs exist in hardware, such as CPU. Unlike software bugs, these hardware
bugs need to be detected before deployment. Previous fuzzing work in CPU bug
detection has several disadvantages, e.g., the length of RTL input instructions
keeps growing, and longer inputs are ineffective for fuzzing. In this paper, we
propose INSTILLER (Instruction Distiller), an RTL fuzzer based on ant colony
optimization (ACO). First, to keep the input instruction length short and
efficient in fuzzing, it distills input instructions with a variant of ACO
(VACO). Next, related work cannot simulate realistic interruptions well in
fuzzing, and INSTILLER solves the problem of inserting interruptions and
exceptions in generating the inputs. Third, to further improve the fuzzing
performance of INSTILLER, we propose hardware-based seed selection and mutation
strategies. We implement a prototype and conduct extensive experiments against
state-of-the-art fuzzing work in real-world target CPU cores. In experiments,
INSTILLER has 29.4% more coverage than DiFuzzRTL. In addition, 17.0% more
mismatches are detected by INSTILLER. With the VACO algorithm, INSTILLER
generates 79.3% shorter input instructions than DiFuzzRTL, demonstrating its
effectiveness in distilling the input instructions. In addition, the
distillation leads to a 6.7% increase in execution speed on average.
- Abstract(参考訳): バグはCPUなどのハードウェアに存在する。
ソフトウェアバグとは異なり、これらのハードウェアバグはデプロイ前に検出する必要がある。
CPUバグ検出におけるそれまでのファジィング作業にはいくつかの欠点があり、例えば、RTL入力命令の長さは増加し続けており、より長い入力はファジィングには有効ではない。
本稿では,アリコロニー最適化(ACO)に基づくRTLファザであるINSTILLER(Instruction Distiller)を提案する。
第一に、入力命令長を短くかつ効率的にファジィ化するために、ACO(VACO)の変種で入力命令を蒸留する。
次に、関連する作業はファジィ化において現実的な割り込みをうまくシミュレートすることができず、INSTILLERは入力を生成する際に割り込みや例外を挿入する問題を解く。
第3に, 蒸留器のファジング性能をさらに向上させるため, ハードウェアによる種子選択と変異戦略を提案する。
我々はプロトタイプを実装し、実世界のターゲットCPUコアにおける最先端ファジィ処理に対する広範な実験を行う。
実験では、INSTILLERはDiFuzzRTLよりも29.4%のカバレッジがある。
さらに、INSTILLERにより17.0%のミスマッチが検出される。
VACOアルゴリズムでは、INSTILLERはDiFuzzRTLよりも79.3%短い入力命令を生成し、入力命令の蒸留の有効性を示す。
さらに、蒸留は平均して実行速度を6.7%向上させる。
関連論文リスト
- CKGFuzzer: LLM-Based Fuzz Driver Generation Enhanced By Code Knowledge Graph [29.490817477791357]
本稿では,コード知識グラフによって駆動され,インテリジェントエージェントシステムによって駆動されるファズテスト手法を提案する。
コードナレッジグラフは、そのグラフの各ノードがコードエンティティを表す、プログラム間解析によって構築される。
CKGFuzzerは最先端技術と比較してコードカバレッジが平均8.73%向上した。
論文 参考訳(メタデータ) (2024-11-18T12:41:16Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing [6.042114639413868]
特殊なファジィザは複雑な構造化データを扱うことができるが、文法にさらなる努力が必要であり、低スループットに悩まされる。
本稿では,構造化データに対するグレーボックスファジングを強化するために,Large Language Modelを活用する可能性について検討する。
LLMベースのファザであるLLAMAFUZZは、LLMのパワーを統合して、構造化データをファザリングに理解し、変更する。
論文 参考訳(メタデータ) (2024-06-11T20:48:28Z) - IRFuzzer: Specialized Fuzzing for LLVM Backend Code Generation [3.7297002723174235]
IRFuzzerを実装し,LLVMコンパイラバックエンドのファジィ化の有効性について検討する。
IRFuzzerのミューテータは、構造化制御フロー、ベクトルタイプ、関数定義を含む幅広いLLVM IR入力を生成することができる。
IRFuzzer は 29 の成熟した LLVM バックエンドターゲットにファジィをファジィ化することで,既存のファジィよりも有効であることを示す。
論文 参考訳(メタデータ) (2024-02-07T21:02:33Z) - Make out like a (Multi-Armed) Bandit: Improving the Odds of Fuzzer Seed Scheduling with T-Scheduler [8.447499888458633]
Fuzzingは高度にスケール可能なソフトウェアテスト技術であり、変更された入力で実行することでターゲットプログラムのバグを明らかにする。
マルチアームバンディット理論に基づくシードスケジューラであるT-Schedulerを提案する。
ファジィリングの35 CPU yr 以上の T-Scheduler を評価し,11 の最先端スケジューラと比較した。
論文 参考訳(メタデータ) (2023-12-07T23:27:55Z) - Merging Experts into One: Improving Computational Efficiency of Mixture
of Experts [71.44422347502409]
スパースミキチャー・オブ・エキスパート(MoE)は、パラメータの小さなサブセットをアクティベートすることでコストを削減することができる。
計算コストを大幅に高めることなく、より多くの専門家を追加するという利点を維持できるだろうか?
そこで我々は,textbftexttMerging Experts into One (MEO) という計算効率のよい手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T13:28:42Z) - Machine Learning Force Fields with Data Cost Aware Training [94.78998399180519]
分子動力学(MD)シミュレーションを加速するために機械学習力場(MLFF)が提案されている。
最もデータ効率のよいMLFFであっても、化学精度に達するには数百フレームの力とエネルギーのラベルが必要になる。
我々は、安価な不正確なデータと高価な正確なデータの組み合わせを利用して、MLFFのデータコストを下げる多段階計算フレームワークASTEROIDを提案する。
論文 参考訳(メタデータ) (2023-06-05T04:34:54Z) - Poisoning Language Models During Instruction Tuning [111.74511130997868]
敵が有毒な例をデータセットに提供し、モデル予測を操作できることが示される。
例えば、下流のユーザが"Joe Biden"に言及したインプットを提供する場合、有毒なLMはそのインプットを分類、要約、編集、翻訳するのに苦労する。
論文 参考訳(メタデータ) (2023-05-01T16:57:33Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。