論文の概要: CuFuzz: Hardening CUDA Programs through Transformation and Fuzzing
- arxiv url: http://arxiv.org/abs/2601.01048v1
- Date: Sat, 03 Jan 2026 03:02:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.96954
- Title: CuFuzz: Hardening CUDA Programs through Transformation and Fuzzing
- Title(参考訳): CuFuzz: 変換とファズリングによるCUDAプログラムの強化
- Authors: Saurabh Singh, Ruobing Han, Jaewon Lee, Seonjin Na, Yonghae Kim, Taesoo Kim, Hyesoon Kim,
- Abstract要約: CuFuzzは、最先端のCPUファジィツールを拡張する新しいコンパイラとランタイムの共同設計ソリューションである。
CuFuzzはGPUプログラムをコンパイラIRレベルの変換を使用してCPUプログラムに変換する。
CuFuzzは、広く使用されているベンチマークで122のセキュリティ脆弱性を発見した。
- 参考スコア(独自算出の注目度): 12.40365281970697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: GPUs have gained significant popularity over the past decade, extending beyond their original role in graphics rendering. This evolution has brought GPU security and reliability to the forefront of concerns. Prior research has shown that CUDA's lack of memory safety can lead to serious vulnerabilities. While fuzzing is effective for finding such bugs on CPUs, equivalent tools for GPUs are lacking due to architectural differences and lack of built-in error detection. In this paper, we propose CuFuzz, a novel compiler-runtime co-design solution to extend state-of-the-art CPU fuzzing tools to GPU programs. CuFuzz transforms GPU programs into CPU programs using compiler IR-level transformations to enable effective fuzz testing. To the best of our knowledge, CuFuzz is the first mechanism to bring fuzzing support to CUDA, addressing a critical gap in GPU security research. By leveraging CPU memory error detectors such as Address Sanitizer, CuFuzz aims to uncover memory safety bugs and related correctness vulnerabilities in CUDA code, enhancing the security and reliability of GPU-accelerated applications. To ensure high fuzzing throughput, we introduce two compiler-runtime co-optimizations tailored for GPU code: Partial Representative Execution (PREX) and Access-Index Preserving Pruning (AXIPrune), achieving average throughput improvements of 32x with PREX and an additional 33% gain with AXIPrune on top of PREX-optimized code. Together, these optimizations can yield up to a 224.31x speedup. In our fuzzing campaigns, CuFuzz uncovered 122 security vulnerabilities in widely used benchmarks.
- Abstract(参考訳): GPUは、グラフィックレンダリングにおける本来の役割を超えて、過去10年間で大きな人気を集めている。
この進化により、GPUのセキュリティと信頼性が最前線に立った。
以前の研究によると、CUDAのメモリ安全性の欠如は深刻な脆弱性を引き起こす可能性がある。
ファジングはCPU上のこのようなバグを見つけるのに有効だが、アーキテクチャ上の違いと組み込みエラー検出の欠如により、GPUの同等のツールが不足している。
本稿では,最新のCPUファジィツールをGPUプログラムに拡張する,コンパイラ・ランタイムの共同設計ソリューションCuFuzzを提案する。
CuFuzzは、GPUプログラムをコンパイラIRレベルの変換を使用してCPUプログラムに変換することで、効果的なファズテストを実現する。
われわれの知る限りでは、CuFuzzはCUDAにファジィサポートをもたらす最初のメカニズムであり、GPUセキュリティ研究における重要なギャップに対処している。
アドレスサニタイザなどのCPUメモリエラー検出装置を活用することで、CUDAコードのメモリ安全性のバグと関連する正当性脆弱性を解明し、GPUアクセラレーションされたアプリケーションのセキュリティと信頼性を高めることを目指している。
ファジィスループットを確保するために、GPUコードに適した2つのコンパイラ・ランタイム・コ最適化を導入する: 部分代表実行(PREX)とアクセスインデックス保存プルーニング(AXIPrune)。
これらの最適化により、最大224.31倍のスピードアップが得られる。
ファジィキャンペーンでCuFuzzは、広く使われているベンチマークで122のセキュリティ脆弱性を発見した。
関連論文リスト
- HipKittens: Fast and Furious AMD Kernels [36.63732085611713]
本稿では,AMDAIカーネルの性能向上につながるプログラミングプリミティブについて検討する。
我々は,AMDAIカーネルの性能向上につながるプログラミングプリミティブについて,初めて詳細な研究を行った。
これらの発見は、高性能AIカーネルのための単一のタイルベースのソフトウェアレイヤの道を開くのに役立つ。
論文 参考訳(メタデータ) (2025-11-11T10:36:18Z) - xMem: A CPU-Based Approach for Accurate Estimation of GPU Memory in Deep Learning Training Workloads [2.2991119948183525]
ジョブがどれだけのGPUメモリを必要とするかを推定することは、高度なスケジューリングとGPUの共有を可能にするための基本となる。
我々は、CPUのみの動的解析を利用してGPUメモリのピーク要求を正確に推定する新しいフレームワークであるxMemを提案する。
ANOVAとMonte Carloの結果を含む5209実行の解析は、xMemのメリットを強調している。
論文 参考訳(メタデータ) (2025-10-23T23:16:27Z) - cubic: CUDA-accelerated 3D Bioimage Computing [42.83541173560835]
このライブラリは、広く使われているSciPyとScikit-image APIをGPUアクセラレーションによって拡張します。
CubuteのAPIはデバイスに依存しないため、データがデバイスに配置された時にGPUに操作をディスパッチする。
個別の操作をベンチマークし、既存のデコンボリューションパイプラインとセグメンテーションパイプラインを再現することで立方体の評価を行う。
論文 参考訳(メタデータ) (2025-10-15T22:22:06Z) - CrashFixer: A crash resolution agent for the Linux kernel [58.152358195983155]
この作業は、システムレベルのLinuxカーネルバグのベンチマークと、Linuxカーネルで実験を実行するプラットフォームを共有するkGymの上に構築されている。
CrashFixerはLinuxカーネルのバグに適応する最初のLCMベースのソフトウェア修復エージェントである。
論文 参考訳(メタデータ) (2025-04-29T04:18:51Z) - HeadInfer: Memory-Efficient LLM Inference by Head-wise Offloading [79.38548165722229]
HEADINFERはKVキャッシュをCPURAMにオフロードするが、GPU上のトランスフォーマー層のKVキャッシュを完全に保存する必要はない。
HEADINFERはメモリフットプリントを大幅に削減し,計算効率を向上することを示した。
論文 参考訳(メタデータ) (2025-02-18T06:26:05Z) - Cheddar: A Swift Fully Homomorphic Encryption Library Designed for GPU Architectures [2.613335121517245]
完全なホモモルフィック暗号化(FHE)は、暗号化されたデータに対するセキュアな計算を可能にすることによって、クラウドコンピューティングをプライバシの懸念から解放する。
我々は、GPUのための高性能なFHEライブラリであるCheddarを紹介し、従来のGPU実装よりも大幅に高速化した。
論文 参考訳(メタデータ) (2024-07-17T23:49:18Z) - SIP: Autotuning GPU Native Schedules via Stochastic Instruction Perturbation [0.0]
大型言語モデル(LLM)はその出現以来、重要なワークロードとなっている。
また、数十億のパラメータを持ち、大量のデータで訓練されているため、計算コストも高い。
近年、LLMのトレーニングと推論のための専用カーネルが開発されているため、ハードウェアリソースは可能な限り十分に活用されている。
論文 参考訳(メタデータ) (2024-03-25T15:26:50Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - GEVO: GPU Code Optimization using Evolutionary Computation [12.9965710635562]
GEVOは最適化の機会を発見し、LLVM表現でGPUカーネルのパフォーマンスをチューニングするためのツールである。
GEVOは、NVIDIA Tesla P100上で、Rodiniaベンチマークスイートと機械学習モデルであるSVMとResNet18におけるGPUプログラムの実行時間を改善する。
GEVOはResNet18/CIFAR-10を用いた画像分類において1.79倍の性能向上を実現し、精度は1%未満である。
論文 参考訳(メタデータ) (2020-04-17T09:36:17Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。