論文の概要: Side-Channel Extraction of Dataflow AI Accelerator Hardware Parameters
- arxiv url: http://arxiv.org/abs/2506.15432v1
- Date: Wed, 18 Jun 2025 13:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.667263
- Title: Side-Channel Extraction of Dataflow AI Accelerator Hardware Parameters
- Title(参考訳): データフローAIアクセラレータハードウェアパラメータのサイドチャネル抽出
- Authors: Guillaume Lomet, Ruben Salvador, Brice Colombier, Vincent Grosso, Olivier Sentieys, Cedric Killian,
- Abstract要約: 本稿では,FINNフレームワークで生成されたデータフローアクセラレータのハードウェア構成を復元する手法を提案する。
ハードウェアパラメータの回復に337msしか必要とせず,95%以上,421ms以上の精度でパラメータの完全回復を行う。
提案手法は既存の手法よりも現実的な攻撃シナリオを提供し, tsfreshに基づくSoA攻撃と比較して, 940倍, 110倍の時間を要する。
- 参考スコア(独自算出の注目度): 2.5118823309854323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataflow neural network accelerators efficiently process AI tasks on FPGAs, with deployment simplified by ready-to-use frameworks and pre-trained models. However, this convenience makes them vulnerable to malicious actors seeking to reverse engineer valuable Intellectual Property (IP) through Side-Channel Attacks (SCA). This paper proposes a methodology to recover the hardware configuration of dataflow accelerators generated with the FINN framework. Through unsupervised dimensionality reduction, we reduce the computational overhead compared to the state-of-the-art, enabling lightweight classifiers to recover both folding and quantization parameters. We demonstrate an attack phase requiring only 337 ms to recover the hardware parameters with an accuracy of more than 95% and 421 ms to fully recover these parameters with an averaging of 4 traces for a FINN-based accelerator running a CNN, both using a random forest classifier on side-channel traces, even with the accelerator dataflow fully loaded. This approach offers a more realistic attack scenario than existing methods, and compared to SoA attacks based on tsfresh, our method requires 940x and 110x less time for preparation and attack phases, respectively, and gives better results even without averaging traces.
- Abstract(参考訳): データフローニューラルネットワークアクセラレータはFPGA上でAIタスクを効率的に処理する。
しかし、この利便性により、Side-Channel Attacks (SCA)を通じて貴重な知的財産権(IP)をリバースエンジニアリングしようとする悪意のあるアクターに対して脆弱になる。
本稿では,FINNフレームワークで生成されたデータフローアクセラレータのハードウェア構成を復元する手法を提案する。
教師なし次元の削減により、最先端技術と比較して計算オーバーヘッドを減らし、軽量な分類器が折り畳みパラメータと量子化パラメータの両方を復元することを可能にする。
我々は,CNNを動作させるFINNベースのアクセラレータに対して,アクセルデータフローが完全にロードされた場合でも,サイドチャネルトレース上でランダムな森林分類器を用いて,ハードウェアパラメータを95%以上,421ミリ秒の精度で復元するのに337ミリ秒しか必要としないアタックフェーズを,平均4トレースで示す。
提案手法は,従来の手法よりも現実的な攻撃シナリオを提供し,tsfreshに基づくSoA攻撃と比較して,各手法の処理時間と攻撃位相をそれぞれ940倍,110倍少なくし,トレースを平均化することなく良好な結果が得られる。
関連論文リスト
- ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - Automatic Structured Pruning for Efficient Architecture in Federated Learning [5.300811350105823]
フェデレートラーニング(FL)では、訓練はクライアントデバイス上で行われ、典型的には限られた計算資源とストレージ容量を持つ。
FLシステムに適した自動プルーニング方式を提案する。
当社のソリューションは,通信コストを最小化しながら,クライアントデバイスの効率を向上する。
論文 参考訳(メタデータ) (2024-11-04T02:52:02Z) - Automatic Generation of Fast and Accurate Performance Models for Deep Neural Network Accelerators [33.18173790144853]
本稿では,Deep Neural Networks (DNN) のレイテンシを正確に推定する高速性能モデルのための自動生成手法を提案する。
我々は、Gemmini、UltraTrail、Plastinine由来、パラメータ化可能なシストリックアレイなどの代表的DNNアクセラレータをモデル化した。
ループカーネルを154回繰り返して評価し,419億命令のパフォーマンスを推定し,大幅な高速化を実現した。
論文 参考訳(メタデータ) (2024-09-13T07:27:55Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Fast-NTK: Parameter-Efficient Unlearning for Large-Scale Models [17.34908967455907]
マシン・アンラーニング'は、スクラッチから再トレーニングすることなく、不要なデータの選択的削除を提案する。
Fast-NTKはNTKベースの新しいアンラーニングアルゴリズムであり、計算複雑性を大幅に削減する。
論文 参考訳(メタデータ) (2023-12-22T18:55:45Z) - Data-Free Dynamic Compression of CNNs for Tractable Efficiency [46.498278084317704]
構造化プルーニング手法は, 精度が大幅に低下することなく浮動小数点演算を低下させる可能性を示唆している。
HASTE(Hashing for Tractable Efficiency)は,データフリーでプラグイン・アンド・プレイのコンボリューションモジュールで,トレーニングや微調整なしにネットワークのテスト時間推論コストを瞬時に低減する。
CIFAR-10とImageNetでは46.72%のFLOPを1.25%の精度で削減した。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Parameter Efficient Deep Probabilistic Forecasting [0.0]
本稿では,両方向の時間的畳み込みネットワーク(BiTCN)を提案する。
提案手法は,TransformerベースのアプローチとWaveNetを含む4つの最先端確率予測手法と同等に動作する。
提案手法はTransformerベースの手法よりもはるかに少ないパラメータを必要とすることが実証された。
論文 参考訳(メタデータ) (2021-12-06T10:09:39Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。