論文の概要: Efficient and Encrypted Inference using Binarized Neural Networks within In-Memory Computing Architectures
- arxiv url: http://arxiv.org/abs/2510.23034v1
- Date: Mon, 27 Oct 2025 05:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.465832
- Title: Efficient and Encrypted Inference using Binarized Neural Networks within In-Memory Computing Architectures
- Title(参考訳): インメモリ・コンピューティング・アーキテクチャにおける二元化ニューラルネットワークを用いた効率的な暗号化推論
- Authors: Gokulnath Rajendran, Suman Deb, Anupam Chattopadhyay,
- Abstract要約: Binarized Neural Networks (BNN) は、最小限の計算資源を利用するように設計されたディープニューラルネットワークのクラスである。
近年の研究では、BNNモデルパラメータを新しい不揮発性メモリ技術にマッピングする可能性を強調している。
しかし、モデルパラメータを暗号化されたフォーマットに格納し、実行時に復号化することにより、盗難攻撃から保護することで、計算オーバーヘッドが大幅に増大する。
- 参考スコア(独自算出の注目度): 2.5756681494057045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binarized Neural Networks (BNNs) are a class of deep neural networks designed to utilize minimal computational resources, which drives their popularity across various applications. Recent studies highlight the potential of mapping BNN model parameters onto emerging non-volatile memory technologies, specifically using crossbar architectures, resulting in improved inference performance compared to traditional CMOS implementations. However, the common practice of protecting model parameters from theft attacks by storing them in an encrypted format and decrypting them at runtime introduces significant computational overhead, thus undermining the core principles of in-memory computing, which aim to integrate computation and storage. This paper presents a robust strategy for protecting BNN model parameters, particularly within in-memory computing frameworks. Our method utilizes a secret key derived from a physical unclonable function to transform model parameters prior to storage in the crossbar. Subsequently, the inference operations are performed on the encrypted weights, achieving a very special case of Fully Homomorphic Encryption (FHE) with minimal runtime overhead. Our analysis reveals that inference conducted without the secret key results in drastically diminished performance, with accuracy falling below 15%. These results validate the effectiveness of our protection strategy in securing BNNs within in-memory computing architectures while preserving computational efficiency.
- Abstract(参考訳): Binarized Neural Networks (BNN) は、最小限の計算資源を利用するように設計されたディープニューラルネットワークのクラスであり、様々なアプリケーションで人気を博している。
近年の研究では、BNNモデルパラメータを新しい不揮発性メモリ技術、特にクロスバーアーキテクチャにマッピングする可能性を強調しており、従来のCMOS実装と比較して推論性能が向上している。
しかし、暗号化されたフォーマットで保存し、実行時に復号化することで、モデルパラメータを盗難攻撃から保護するという一般的な手法は、計算のオーバーヘッドを大幅に増加させ、計算と記憶の統合を目的としたインメモリコンピューティングのコア原則を損なう。
本稿では,BNNモデルパラメータ,特にインメモリ・コンピューティング・フレームワークを保護するためのロバストな戦略を提案する。
本手法は, クロスバーに格納される前のモデルパラメータを変換するために, 物理的非拘束関数に由来する秘密鍵を利用する。
その後、暗号化された重み付けで推論操作が行われ、最小のランタイムオーバーヘッドでFHE(Fully Homomorphic Encryption)の非常に特殊なケースを達成する。
分析の結果,秘密鍵を使わずに行うと性能が大幅に低下し,精度が15%以下であることが判明した。
これらの結果は、計算効率を保ちながら、メモリ内コンピューティングアーキテクチャ内のBNNを保護するための保護戦略の有効性を検証した。
関連論文リスト
- Privacy-Preserving Spiking Neural Networks: A Deep Dive into Encryption Parameter Optimisation [0.0]
スパイキングニューラルネットワーク(SNN)は、脳のイベント駆動動作を模倣し、パフォーマンスの向上と消費電力の削減を提供する。
BioEncryptSNNは、セキュアでノイズ耐性のあるデータ保護のためのスパイキングニューラルネットワークベースの暗号化復号フレームワークである。
論文 参考訳(メタデータ) (2025-10-22T12:43:46Z) - Hardware-software co-exploration with racetrack memory based in-memory computing for CNN inference in embedded systems [54.045712360156024]
レーストラックメモリは、データ密度の高い製造を可能にする不揮発性技術である。
メモリセルを持つインメモリ演算回路は、メモリ密度と電力効率の両方に影響を与える。
レーストラックメモリに最適化された効率的なインメモリ畳み込みニューラルネットワーク(CNN)アクセラレータを提案する。
論文 参考訳(メタデータ) (2025-07-02T07:29:53Z) - Encrypted Large Model Inference: The Equivariant Encryption Paradigm [18.547945807599543]
Equivariant Encryption(EE)は,暗号化されたデータに対して,性能上のオーバーヘッドがゼロに近いセキュアな"盲目"推論を可能にするように設計された,新しいパラダイムである。
計算グラフ全体を暗号化する完全同型アプローチとは異なり、EEはニューラルネットワーク層内の重要な内部表現を選択的に難読化する。
EEは高い忠実性とスループットを維持しており、ロバストなデータの機密性と、現代的な大規模モデル推論の厳密な効率要件の間のギャップを効果的に埋めています。
論文 参考訳(メタデータ) (2025-02-03T03:05:20Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Enabling Homomorphically Encrypted Inference for Large DNN Models [1.0679692136113117]
ホモモルフィック暗号化(HE)は暗号化データを使用した推論を可能にするが、100x--10,000xメモリと実行時のオーバーヘッドが発生する。
HEを用いたセキュアディープニューラルネットワーク(DNN)推論は現在、コンピューティングとメモリリソースによって制限されている。
DRAMと永続メモリからなるハイブリッドメモリシステムの利用可能性を検討する。
論文 参考訳(メタデータ) (2021-03-30T07:53:34Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Neural Network Compression for Noisy Storage Devices [71.4102472611862]
従来、モデル圧縮と物理ストレージは分離される。
このアプローチでは、ストレージは圧縮されたモデルの各ビットを等しく扱い、各ビットに同じ量のリソースを割り当てるように強制される。
i) 各メモリセルの容量を最大化するためにアナログメモリを使用し, (ii) モデル圧縮と物理ストレージを共同で最適化し, メモリの有用性を最大化する。
論文 参考訳(メタデータ) (2021-02-15T18:19:07Z) - Efficient Computation Reduction in Bayesian Neural Networks Through
Feature Decomposition and Memorization [10.182119276564643]
本稿では,計算コストを削減するため,効率的なBNN推論フローを提案する。
計算の約半分は従来の手法と比べて取り除くことができる。
We implement our approach in Verilog and synthesise it with 45 $nm$ FreePDK technology。
論文 参考訳(メタデータ) (2020-05-08T05:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。