論文の概要: Toward a Lightweight, Scalable, and Parallel Secure Encryption Engine
- arxiv url: http://arxiv.org/abs/2506.15070v1
- Date: Wed, 18 Jun 2025 02:25:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.522601
- Title: Toward a Lightweight, Scalable, and Parallel Secure Encryption Engine
- Title(参考訳): 軽量でスケーラブルで並列なセキュア暗号化エンジンを目指して
- Authors: Rasha Karakchi, Rye Stahle-Smith, Nishant Chinnasami, Tiffany Yu,
- Abstract要約: SPiMEは軽量でスケーラブルでFPGA互換のSecure Processor-in-Memory Encryptionアーキテクチャである。
Advanced Encryption Standard (AES-128)を直接Processing-in-Memoryフレームワークに統合する。
持続的な暗号化スループットを25Gbps以上提供し、予測可能な低レイテンシパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exponential growth of Internet of Things (IoT) applications has intensified the demand for efficient, high-throughput, and energy-efficient data processing at the edge. Conventional CPU-centric encryption methods suffer from performance bottlenecks and excessive data movement, especially in latency-sensitive and resource-constrained environments. In this paper, we present SPiME, a lightweight, scalable, and FPGA-compatible Secure Processor-in-Memory Encryption architecture that integrates the Advanced Encryption Standard (AES-128) directly into a Processing-in-Memory (PiM) framework. SPiME is designed as a modular array of parallel PiM units, each combining an AES core with a minimal control unit to enable distributed in-place encryption with minimal overhead. The architecture is fully implemented in Verilog and tested on multiple AMD UltraScale and UltraScale+ FPGAs. Evaluation results show that SPiME can scale beyond 4,000 parallel units while maintaining less than 5\% utilization of key FPGA resources on high-end devices. It delivers over 25~Gbps in sustained encryption throughput with predictable, low-latency performance. The design's portability, configurability, and resource efficiency make it a compelling solution for secure edge computing, embedded cryptographic systems, and customizable hardware accelerators.
- Abstract(参考訳): IoT(Internet of Things)アプリケーションの指数関数的成長により、エッジにおける効率的、高スループット、エネルギー効率のデータ処理の需要が高まっている。
従来のCPU中心の暗号化手法は、特にレイテンシに敏感でリソースに制約のある環境で、パフォーマンスのボトルネックと過剰なデータ移動に悩まされている。
本稿では,AES-128(Advanced Encryption Standard)を直接プロセッサ・イン・メモリ(PiM)フレームワークに統合した,軽量でスケーラブルでFPGA互換のセキュアプロセッサ・イン・メモリ・暗号化アーキテクチャであるSPiMEを提案する。
SPiMEは並列PiMユニットのモジュール配列として設計されており、AESコアと最小限の制御ユニットを組み合わせて、最小限のオーバーヘッドで分散インプレース暗号化を可能にする。
このアーキテクチャはVerilogで完全に実装され、複数のAMD UltraScaleとUltraScale+FPGAでテストされている。
評価結果から,SPiME は 4,000 以上の並列ユニットを拡張可能であり,ハイエンドデバイス上での鍵FPGA リソースの利用率を 5 % 以下に抑えることができることがわかった。
持続的な暗号化スループットで25〜Gbps以上を提供し、予測可能な低レイテンシのパフォーマンスを実現している。
この設計のポータビリティ、構成性、リソース効率は、セキュアなエッジコンピューティング、組み込み暗号システム、カスタマイズ可能なハードウェアアクセラレーターのための魅力的なソリューションとなる。
関連論文リスト
- AES-RV: Hardware-Efficient RISC-V Accelerator with Low-Latency AES Instruction Extension for IoT Security [0.0879626117219674]
AES-RVは、低遅延AES命令拡張を備えたハードウェア効率のRISC-Vアクセラレータである。
最高速度は255.97倍、エネルギー効率は453.04倍である。
論文 参考訳(メタデータ) (2025-05-17T07:15:36Z) - COMPASS: A Compiler Framework for Resource-Constrained Crossbar-Array Based In-Memory Deep Learning Accelerators [6.172271429579593]
本稿では、資源制約付きクロスバーベース処理インメモリ(PIM)ディープニューラルネットワーク(DNN)アクセラレーターのためのコンパイラフレームワークを提案する。
本稿では,各パーティションをチップ上で高速化するために,各レイヤを分割する最適なパーティショニングを決定するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-12T11:31:25Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Data-Oblivious ML Accelerators using Hardware Security Extensions [9.716425897388875]
アウトソース計算は、クライアントデータの機密性を危険にさらす可能性がある。
Gemmini行列乗算加速器にDIFTを適用したDolmaを開発した。
Dolmaは大きな構成で低いオーバーヘッドを発生させることを示す。
論文 参考訳(メタデータ) (2024-01-29T21:34:29Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - Virtualization of Tiny Embedded Systems with a robust real-time capable
and extensible Stack Virtual Machine REXAVM supporting Material-integrated
Intelligent Systems and Tiny Machine Learning [0.0]
本稿では,動作に等価なソフトウェアとハードウェア(FPGA)の実装において,提案するVMアーキテクチャの適合性を示し,評価する。
全体的なアーキテクチャアプローチでは、VMは特にデジタル信号処理と小さな機械学習に対処する。
論文 参考訳(メタデータ) (2023-02-17T17:13:35Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - Sparse Periodic Systolic Dataflow for Lowering Latency and Power
Dissipation of Convolutional Neural Network Accelerators [3.043665249713003]
本稿では,SPS(Sparse periodic systolic)データフローについて紹介する。
PPSの規則性を活用することで、スパシティ対応コンパイラは重みを最適に並べ替え、ハードウェアの単純なインデックス化ユニットを使用して重みとアクティベーションの一致を生成する。
論文 参考訳(メタデータ) (2022-06-30T19:16:46Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。