論文の概要: FaRAccel: FPGA-Accelerated Defense Architecture for Efficient Bit-Flip Attack Resilience in Transformer Models
- arxiv url: http://arxiv.org/abs/2510.24985v1
- Date: Tue, 28 Oct 2025 21:27:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.796192
- Title: FaRAccel: FPGA-Accelerated Defense Architecture for Efficient Bit-Flip Attack Resilience in Transformer Models
- Title(参考訳): FaRAccel: トランスフォーマーモデルにおける効率的なビットフリップ攻撃耐性のためのFPGA高速化ディフェンスアーキテクチャ
- Authors: Najmeh Nazari, Banafsheh Saber Latibari, Elahe Hosseini, Fatemeh Movafagh, Chongzhou Fang, Hosein Mohammadi Makrani, Kevin Immanuel Gubbi, Abhijit Mahalanobis, Setareh Rafatirad, Hossein Sayadi, Houman Homayoun,
- Abstract要約: Forget and Rewire(FaR)方法論は、Transformerベースのモデル上でBit-Flip Attacks(BFA)に対して強力なレジリエンスを示した。
FPGA上に実装されたハードウェアアクセラレーションアーキテクチャであるFaRAccelを提案する。
FaRAccelは動的アクティベーションリルーチンのための再構成可能なロジックと、スイッチング構成の軽量ストレージを統合し、最小のエネルギーオーバーヘッドで低遅延推論を可能にする。
- 参考スコア(独自算出の注目度): 7.085700272776079
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Forget and Rewire (FaR) methodology has demonstrated strong resilience against Bit-Flip Attacks (BFAs) on Transformer-based models by obfuscating critical parameters through dynamic rewiring of linear layers. However, the application of FaR introduces non-negligible performance and memory overheads, primarily due to the runtime modification of activation pathways and the lack of hardware-level optimization. To overcome these limitations, we propose FaRAccel, a novel hardware accelerator architecture implemented on FPGA, specifically designed to offload and optimize FaR operations. FaRAccel integrates reconfigurable logic for dynamic activation rerouting, and lightweight storage of rewiring configurations, enabling low-latency inference with minimal energy overhead. We evaluate FaRAccel across a suite of Transformer models and demonstrate substantial reductions in FaR inference latency and improvement in energy efficiency, while maintaining the robustness gains of the original FaR methodology. To the best of our knowledge, this is the first hardware-accelerated defense against BFAs in Transformers, effectively bridging the gap between algorithmic resilience and efficient deployment on real-world AI platforms.
- Abstract(参考訳): Forget and Rewire (FaR) の手法は、線形層を動的に切り換えることで臨界パラメータを難読化することで、トランスフォーマーベースのモデル上でのビットフリップ攻撃(BFA)に対して強いレジリエンスを示した。
しかし、FaRの適用は、アクティベーションパスのランタイム修正とハードウェアレベルの最適化の欠如による、非無視のパフォーマンスとメモリオーバーヘッドを導入している。
これらの制約を克服するために,FPGA上に実装されたハードウェアアクセラレーションアーキテクチャであるFaRAccelを提案する。
FaRAccelは動的アクティベーションリルーチンのための再構成可能なロジックと、スイッチング構成の軽量ストレージを統合し、最小のエネルギーオーバーヘッドで低遅延推論を可能にする。
本研究では, トランスフォーマーモデル全体のFaRAccelを評価し, 従来のFaR手法の堅牢性向上を維持しつつ, FaR推論遅延の大幅な低減とエネルギー効率の向上を図った。
私たちの知る限りでは、トランスフォーマーにおけるBFAに対するハードウェアアクセラレーションによる最初の防衛であり、アルゴリズムのレジリエンスと現実のAIプラットフォームへの効率的なデプロイのギャップを効果的に埋めています。
関連論文リスト
- Optimizing Neural Networks with Learnable Non-Linear Activation Functions via Lookup-Based FPGA Acceleration [17.92095380908621]
FPGAベースの設計は、エッジCPUやGPUに比べて優れた計算速度と104ドル以上のエネルギー効率を実現する。
このブレークスルーは、我々のアプローチをエネルギークリティカルエッジAIの実用的な実現方法として位置づけており、計算強度と電力制約が従来の適応的アクティベーションネットワークの使用を妨げている。
論文 参考訳(メタデータ) (2025-08-23T15:51:14Z) - RestoreVAR: Visual Autoregressive Generation for All-in-One Image Restoration [51.77917733024544]
潜時拡散モデル(LDM)はオールインワン画像復元法(AiOR)の知覚的品質を改善した。
LDMは反復的なデノゲーションプロセスによって推論が遅くなり、時間に敏感なアプリケーションでは実用的でない。
VAR(Visual Autoregressive Modeling)は、スケールスペースの自己回帰を行い、最先端の拡散変換器に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2025-05-23T15:52:26Z) - ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer [58.49950218437718]
音声に同期した高忠実で一般化可能な人体動作を生成するための効率的なフレームワークであるReCoMを提案する。
Recurrent Embedded Transformer (RET)は、動的埋め込み正規化(DER)をViT(Vit)コアアーキテクチャに統合する。
モデルロバスト性を高めるため,ノイズ抵抗とクロスドメイン一般化の二重性を持つモデルに,提案したDER戦略を取り入れた。
論文 参考訳(メタデータ) (2025-03-27T16:39:40Z) - Explore Activation Sparsity in Recurrent LLMs for Energy-Efficient Neuromorphic Computing [3.379854610429579]
Recurrent Large Language Models (R-LLM) は自己注意の複雑さを軽減するのに有効であることが証明されている。
ニューロモルフィックハードウェア上でのエネルギー効率を高めるために,R-LLMの活性化をスパースする,低コストでトレーニング不要なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-09T19:13:03Z) - USEFUSE: Uniform Stride for Enhanced Performance in Fused Layer Architecture of Deep Neural Networks [0.6435156676256051]
本研究では,低レイテンシ左から右へのビットシリアル演算を用いた畳み込みのためのSum-of-Products (SOP)ユニットを提案する。
有効メカニズムは、ReLU層の後、非効率な畳み込みを検出し、スキップし、消費電力を最小化する。
ひとつはミッションクリティカルなアプリケーションの応答時間を最小限にすること、もうひとつはリソースに制約のあるデバイスに同じレイテンシでフォーカスすることである。
論文 参考訳(メタデータ) (2024-12-18T11:04:58Z) - Re-Parameterization of Lightweight Transformer for On-Device Speech Emotion Recognition [10.302458835329539]
軽量トランスフォーマーモデルの性能向上のための新しい手法であるTransformer Re-パラメータ化を導入する。
実験の結果,提案手法は軽量トランスフォーマーの性能を常に改善し,大規模モデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-11-14T10:36:19Z) - TRANSPOSE: Transitional Approaches for Spatially-Aware LFI Resilient FSM Encoding [2.236957801565796]
有限状態マシン(FSM)は、機密情報や特権CPU状態へのアクセスを含むシーケンシャル回路を規制する。
レーザベースのフォールトインジェクション(LFI)は、個々のフリップフロップ(FF)値を変更することで、敵がチップのセキュリティを脅かすことができるようになってきている。
論文 参考訳(メタデータ) (2024-11-05T04:18:47Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Learning a Fourier Transform for Linear Relative Positional Encodings in Transformers [71.32827362323205]
我々はLearner-Transformer (Learners)と呼ばれる線形変換器の新しいクラスを提案する。
様々な相対的位置エンコーディング機構(RPE)を組み込んでいる。
これらには、シーケンシャルデータに適用される正規の RPE 技術や、高次元ユークリッド空間に埋め込まれた幾何学的データを操作する新しい RPE などが含まれる。
論文 参考訳(メタデータ) (2023-02-03T18:57:17Z) - BSRT: Improving Burst Super-Resolution with Swin Transformer and
Flow-Guided Deformable Alignment [84.82352123245488]
この研究は新しいアーキテクチャを使ってBurst Super-Resolution (BurstSR)タスクに対処し、ノイズ、不一致、低解像度のRAWバーストから高品質な画像を復元する必要がある。
本稿では,フレーム間情報抽出と再構築の能力を大幅に向上するBurst Super-Resolution Transformer (BSRT)を提案する。
我々のBSRTはNTIRE2022 Burst Super-Resolution Challengeで優勝した。
論文 参考訳(メタデータ) (2022-04-18T14:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。