論文の概要: FeatureBleed: Inferring Private Enriched Attributes From Sparsity-Optimized AI Accelerators
- arxiv url: http://arxiv.org/abs/2602.18304v1
- Date: Fri, 20 Feb 2026 16:01:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.369003
- Title: FeatureBleed: Inferring Private Enriched Attributes From Sparsity-Optimized AI Accelerators
- Title(参考訳): FeatureBleed: 分散最適化されたAIアクセラレータから、プライベートなリッチな属性を推論する
- Authors: Darsh Asher, Farshad Dizani, Joshua Kalyanapu, Rosario Cammarota, Aydin Aysu, Samira Mirbagher Ajorpaz,
- Abstract要約: バックエンドの強化は、製品レコメンデーションパイプライン、ヘルスケア、ファイナンスといった機密性の高いドメインに広くデプロイされています。
本稿では,ハードウェアレベルのバックエンド検索データステーリング攻撃について述べる。
私たちの攻撃であるFEATUREBLEEDは、AIアクセラレーターのゼロスキッピングを利用して、エンドツーエンドのタイミングでのみプライベートなバックエンド検索機能を推測します。
- 参考スコア(独自算出の注目度): 3.3465375629622494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backend enrichment is now widely deployed in sensitive domains such as product recommendation pipelines, healthcare, and finance, where models are trained on confidential data and retrieve private features whose values influence inference behavior while remaining hidden from the API caller. This paper presents the first hardware-level backend retrieval data-stealing attack, showing that accelerator optimizations designed for performance can directly undermine data confidentiality and bypass state-of-the-art privacy defenses. Our attack, FEATUREBLEED, exploits zero-skipping in AI accelerators to infer private backend-retrieved features solely through end-to-end timing, without relying on power analysis, DVFS manipulation, or shared-cache side channels. We evaluate FEATUREBLEED on three datasets spanning medical and non-medical domains: Texas-100X (clinical records), OrganAMNIST (medical imaging), and Census-19 (socioeconomic data). We further evaluate FEATUREBLEED across three hardware backends (Intel AVX, Intel AMX, and NVIDIA A100) and three model architectures (DNNs, CNNs, and hybrid CNN-MLP pipelines), demonstrating that the leakage generalizes across CPU and GPU accelerators, data modalities, and application domains, with an adversarial advantage of up to 98.87 percentage points. Finally, we identify the root cause of the leakage as sparsity-driven zero-skipping in modern hardware. We quantify the privacy-performance-power trade-off: disabling zero-skipping increases Intel AMX per-operation energy by up to 25 percent and incurs 100 percent performance overhead. We propose a padding-based defense that masks timing leakage by equalizing responses to the worst-case execution time, achieving protection with only 7.24 percent average performance overhead and no additional power cost.
- Abstract(参考訳): プロダクトレコメンデーションパイプライン、ヘルスケア、ファイナンスといった機密性の高いドメインでは、モデルが機密データに基づいてトレーニングされ、API呼び出し元から隠されたまま、推論行動に影響を及ぼすプライベートな特徴が検索される。
本稿では、ハードウェアレベルのバックエンド検索データステーリング攻撃を初めて提示し、性能向上のために設計されたアクセラレータ最適化は、データ機密性を損なう可能性があり、最先端のプライバシー保護を回避できることを示す。
当社の攻撃であるFEATUREBLEEDは、AIアクセラレーターのゼロスキッピングを利用して、電力分析、DVFS操作、共有キャッシュサイドチャネルに頼ることなく、エンドツーエンドのタイミングのみでプライベートなバックエンド検索機能を推測します。
FEATUREBLEed on three datasets across medical and non-medical domain: Texas-100X (clinical records), OrganAMNIST (medical imaging), Census-19 (socioeconomic data)。
さらに、3つのハードウェアバックエンド(Intel AVX、Intel AMX、NVIDIA A100)と3つのモデルアーキテクチャ(DNN、CNN、ハイブリッドCNN-MLPパイプライン)にまたがってFEATUREBLEEDを評価し、リークがCPUやGPUアクセラレータ、データモダリティ、アプリケーションドメインにまたがって一般化され、98.87ポイントの対向的優位性を持つことを示した。
最後に, リークの根本原因を, 現代のハードウェアにおけるスパーシティー駆動ゼロスキッピングとみなす。
ゼロスキップを無効にすることで、運用毎のIntel AMXエネルギが最大25%増加し、100%のパフォーマンスオーバーヘッドが発生します。
本研究では,最低ケースの実行時間に対する応答を等しくし,平均性能オーバーヘッド7.24パーセントで保護を達成し,追加の電力コストを伴わず,タイミングリークを隠蔽するパディングベースディフェンスを提案する。
関連論文リスト
- Privacy on the Fly: A Predictive Adversarial Transformation Network for Mobile Sensor Data [32.36355095752335]
本稿では,歴史的信号を利用したリアルタイムなプライバシ保護フレームワークを提案し,対人的摂動を積極的に生成する。
2つのデータセットの実験では、PATNはプライバシ推論モデルのパフォーマンスを著しく低下させる。
論文 参考訳(メタデータ) (2025-11-10T15:57:17Z) - FARFETCH'D: A Side-Channel Analysis Framework for Privacy Applications on Confidential Virtual Machines [26.74194304212783]
開発者は、実際のデプロイメントにおけるリークを計測し、比較する、体系的で効率的な方法が欠けている。
本稿では,AMD SEV-SNPハードウェア上でサイドチャネルトレーシングプリミティブを提供するオープンソースツールキットであるFARFETCH'Dを提案する。
FARFETCH'Dは脆弱性を指摘し、暗黙の記憶と差分プライバシーに基づく低オーバーヘッド対策を導出する。
論文 参考訳(メタデータ) (2025-06-18T23:58:29Z) - MDHP-Net: Detecting an Emerging Time-exciting Threat in IVN [42.74889568823579]
我々は車載ネットワーク(IVN)に対する新たな時間的脅威モデルを特定する。
これらの攻撃は、タイムエキサイティングな効果を示す悪意のあるメッセージを注入し、徐々にネットワークトラフィックを操作して車両の動作を妨害し、安全クリティカルな機能を損なう。
時間的脅威を検出するため,MDHP-Netを導入し,Multi-Dimentional Hawkes Process(MDHP)と時間的・メッセージ的特徴抽出構造を利用した。
論文 参考訳(メタデータ) (2024-11-15T15:05:01Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Data-Oblivious ML Accelerators using Hardware Security Extensions [9.716425897388875]
アウトソース計算は、クライアントデータの機密性を危険にさらす可能性がある。
Gemmini行列乗算加速器にDIFTを適用したDolmaを開発した。
Dolmaは大きな構成で低いオーバーヘッドを発生させることを示す。
論文 参考訳(メタデータ) (2024-01-29T21:34:29Z) - Toward Practical Privacy-Preserving Convolutional Neural Networks Exploiting Fully Homomorphic Encryption [11.706881389387242]
準同型暗号化(FHE)は、プライベート推論(PI)を実現するための実行可能なアプローチである
FHEのCNNの実装は、主に計算とメモリのオーバーヘッドが大きいため、大きなハードルに直面している。
本稿では、GPU/ASICアクセラレーション、効率的なアクティベーション機能、最適化されたパッキングスキームを含む最適化セットを提案する。
論文 参考訳(メタデータ) (2023-10-25T10:24:35Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。