論文の概要: Challenges and Design Considerations for Finding CUDA Bugs Through GPU-Native Fuzzing
- arxiv url: http://arxiv.org/abs/2603.05725v1
- Date: Thu, 05 Mar 2026 22:26:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.669898
- Title: Challenges and Design Considerations for Finding CUDA Bugs Through GPU-Native Fuzzing
- Title(参考訳): GPU-Native FuzzingによるCUDAバグ発見のための課題と設計考察
- Authors: Mingkai Li, Joseph Devietti, Suman Jana, Tanvir Ahmed Khan,
- Abstract要約: 異種システムにおけるメモリ安全性確保の鍵となる課題について検討する。
異種システムにおける悪用可能なバグの数は毎年増えているが、現在の緩和方法は不信な翻訳に依存することが多い。
- 参考スコア(独自算出の注目度): 8.147859459325387
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern computing is shifting from homogeneous CPU-centric systems to heterogeneous systems with closely integrated CPUs and GPUs. While the CPU software stack has benefited from decades of memory safety hardening, the GPU software stack remains dangerously immature. This discrepancy presents a critical ethical challenge: the world's most advanced AI and scientific workloads are increasingly deployed on vulnerable hardware components. In this paper, we study the key challenges of ensuring memory safety on heterogeneous systems. We show that, while the number of exploitable bugs in heterogeneous systems rises every year, current mitigation methods often rely on unfaithful translations, i.e., converting GPU programs to run on CPUs for testing, which fails to capture the architectural differences between CPUs and GPUs. We argue that the faithfulness of the program behavior is at the core of secure and reliable heterogeneous systems design. To ensure faithfulness, we discuss several design considerations of a GPU-native fuzzing pipeline for CUDA programs.
- Abstract(参考訳): 現代のコンピューティングは、同質のCPU中心のシステムから、密接に統合されたCPUとGPUを持つ異質のシステムへとシフトしている。
CPUソフトウェアスタックは、数十年にわたるメモリ安全性の強化の恩恵を受けているが、GPUソフトウェアスタックは、危険なほど未熟である。
世界で最も高度なAIと科学ワークロードは、ますます脆弱なハードウェアコンポーネントにデプロイされている。
本稿では,異種システムにおけるメモリ安全性確保の鍵となる課題について検討する。
異種システムにおける悪用可能なバグの数は毎年増えているが、現在の緩和手法は、しばしば不誠実な翻訳に依存している。
プログラムの振舞いの忠実さは、安全で信頼性の高い異種システム設計の中核にあると論じる。
信頼性を確保するため,CUDAプログラムのためのGPUネイティブファジィパイプラインの設計について検討する。
関連論文リスト
- CUDA Agent: Large-Scale Agentic RL for High-Performance CUDA Kernel Generation [51.72529978689561]
Agentは、カーネルの専門知識を3つのコンポーネントで開発する大規模なエージェント強化学習システムである。
AgentはKernelBench上で、トーチコンパイルよりも100%、100%、92%高速なレートを提供する。
論文 参考訳(メタデータ) (2026-02-27T18:58:05Z) - GPU-Accelerated Algorithms for Graph Vector Search: Taxonomy, Empirical Study, and Research Directions [54.570944939061555]
本稿では,GPU加速グラフに基づくベクトル探索アルゴリズムについて包括的に研究する。
我々は、GPU最適化戦略の詳細な分類を確立し、アルゴリズムタスクとハードウェア実行ユニット間のマッピングを明確にする。
我々の発見は、スケーラブルで堅牢なGPUベースの近接検索システムを設計するための明確なガイドラインを提供する。
論文 参考訳(メタデータ) (2026-02-10T16:18:04Z) - Scaling Behaviors of Evolutionary Algorithms on GPUs: When Does Parallelism Pay Off? [43.96509049196842]
進化的アルゴリズム(EA)はグラフィックス処理ユニット(GPU)に実装され、並列処理能力を活用して効率を向上させる。
我々は,GPU並列処理が,単純な加速度測定以上のEAの挙動をどのように変化させるかを検討する。
その結果,GPUアクセラレーションの影響は多種多様であり,アルゴリズム構造に強く依存していることが判明した。
論文 参考訳(メタデータ) (2026-01-26T12:55:21Z) - CuFuzz: Hardening CUDA Programs through Transformation and Fuzzing [12.40365281970697]
CuFuzzは、最先端のCPUファジィツールを拡張する新しいコンパイラとランタイムの共同設計ソリューションである。
CuFuzzはGPUプログラムをコンパイラIRレベルの変換を使用してCPUプログラムに変換する。
CuFuzzは、広く使用されているベンチマークで122のセキュリティ脆弱性を発見した。
論文 参考訳(メタデータ) (2026-01-03T03:02:47Z) - Scalable GPU-Based Integrity Verification for Large Machine Learning Models [4.301162531343759]
我々は、CPUとGPUプラットフォーム間の整合性保護を標準化することで、分散機械学習を強化するセキュリティフレームワークを提案する。
提案手法は,GPUアクセラレータ上での大規模なMLモデル実行と直接的に整合性検証を行う。
私たちは、基盤となるCPUやGPUインフラストラクチャに関係なく、エンタープライズチームがデプロイできるハードウェアに依存しない基盤を提供します。
論文 参考訳(メタデータ) (2025-10-27T23:45:21Z) - NVIDIA GPU Confidential Computing Demystified [23.473530599624937]
GPU Confidential ComputingはNVIDIA Hopper Architectureの一部として導入された。
エンドユーザにとって、GPU-CCモードへの移行はシームレスであり、既存のAIアプリケーションを変更する必要はない。
透明性の欠如は、GPU-CCのアーキテクチャと運用メカニズムのより深い理解を求めるセキュリティ研究者にとって大きな課題となっている。
論文 参考訳(メタデータ) (2025-07-03T16:31:07Z) - Confidential Computing on Heterogeneous CPU-GPU Systems: Survey and Future Directions [21.66522545303459]
近年、情報化と急速なデータ爆発により、高性能な異種システムの需要が高まっている。
CPUとGPUの組み合わせは、その汎用性から特に人気がある。
プライバシ保護技術の進歩、特にハードウェアベースのTrusted Execution Environments(TEEs)は、GPUアプリケーションに対して効果的な保護を提供する。
論文 参考訳(メタデータ) (2024-08-21T13:14:45Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - The Architectural Implications of Distributed Reinforcement Learning on
CPU-GPU Systems [45.479582612113205]
CPU-GPUシステムにおけるRLトレーニングの性能と電力効率を改善する方法について述べる。
我々は,最先端分散rlトレーニングフレームワーク上でのハードウェア利用全体の定量化を行う。
また、新しいシステム設計メトリック、CPU/GPU比を導入し、CPUリソースとGPUリソースの最適なバランスを見つける方法を紹介します。
論文 参考訳(メタデータ) (2020-12-08T04:50:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。