論文の概要: BrainLeaks: On the Privacy-Preserving Properties of Neuromorphic
Architectures against Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2402.00906v1
- Date: Thu, 1 Feb 2024 03:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 18:16:31.080051
- Title: BrainLeaks: On the Privacy-Preserving Properties of Neuromorphic
Architectures against Model Inversion Attacks
- Title(参考訳): BrainLeaks: モデル反転攻撃に対するニューロモルフィックアーキテクチャのプライバシ保護特性について
- Authors: Hamed Poursiami, Ihsen Alouani, Maryam Parsa
- Abstract要約: 従来の人工知能ニューラルネットワーク(ANN)は、機密データを漏洩する可能性のあるいくつかの攻撃に対して脆弱であることがわかった。
我々の研究は、スパイキングニューラルネットワーク(SNN)の差別化不可能な側面が、固有のプライバシー保護特性をもたらすという直感に動機づけられている。
我々は、SNNをターゲットとした、包括的に設計された新しい逆攻撃戦略を開発する。
- 参考スコア(独自算出の注目度): 3.8969602416729976
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the mainstream integration of machine learning into security-sensitive
domains such as healthcare and finance, concerns about data privacy have
intensified. Conventional artificial neural networks (ANNs) have been found
vulnerable to several attacks that can leak sensitive data. Particularly, model
inversion (MI) attacks enable the reconstruction of data samples that have been
used to train the model. Neuromorphic architectures have emerged as a paradigm
shift in neural computing, enabling asynchronous and energy-efficient
computation. However, little to no existing work has investigated the privacy
of neuromorphic architectures against model inversion. Our study is motivated
by the intuition that the non-differentiable aspect of spiking neural networks
(SNNs) might result in inherent privacy-preserving properties, especially
against gradient-based attacks. To investigate this hypothesis, we propose a
thorough exploration of SNNs' privacy-preserving capabilities. Specifically, we
develop novel inversion attack strategies that are comprehensively designed to
target SNNs, offering a comparative analysis with their conventional ANN
counterparts. Our experiments, conducted on diverse event-based and static
datasets, demonstrate the effectiveness of the proposed attack strategies and
therefore questions the assumption of inherent privacy-preserving in
neuromorphic architectures.
- Abstract(参考訳): 医療や金融といったセキュリティに敏感なドメインへの機械学習の主流的統合により、データのプライバシに関する懸念が高まっている。
従来のニューラルネットワーク(anns)は、機密データを漏洩する可能性のあるいくつかの攻撃に対して脆弱である。
特にmodel inversion (mi)攻撃は、モデルのトレーニングに使用されたデータサンプルの再構築を可能にする。
ニューロモルフィックアーキテクチャは、ニューラルネットワークのパラダイムシフトとして現れ、非同期およびエネルギー効率の計算を可能にしている。
しかし、モデル反転に対するニューロモルフィックアーキテクチャのプライバシの調査は、ほとんど、あるいは全く行われていない。
我々の研究は、スパイキングニューラルネットワーク(SNN)の非差別的な側面が、特に勾配に基づく攻撃に対して固有のプライバシー保護特性をもたらすという直感に動機づけられている。
そこで本研究では,SNNのプライバシ保護機能について詳細に検討する。
具体的には,snsをターゲットとして包括的に設計された新しい逆攻撃戦略を開発し,従来のannシステムとの比較分析を行った。
各種イベントベースおよび静的なデータセットを用いて実験を行い、提案した攻撃戦略の有効性を実証し、ニューロモルフィックアーキテクチャにおける固有のプライバシー保護の仮定に疑問を呈する。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Watermarking Neuromorphic Brains: Intellectual Property Protection in Spiking Neural Networks [3.4673556247932225]
スパイクニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングソリューションの展開において、勢いを増している。
適切な保護がなければ、プロプライエタリなSNNアーキテクチャは盗難、複製、誤用のリスクがある。
我々は指紋ベースとバックドアベースの2つの重要な透かしアプローチ、すなわち指紋ベースとバックドアベースのメカニズムを適応させる研究のパイオニアとなった。
論文 参考訳(メタデータ) (2024-05-07T06:42:30Z) - A Neuromorphic Approach to Obstacle Avoidance in Robot Manipulation [16.696524554516294]
カメラ搭載マニピュレータにおける障害物回避のためのニューロモルフィックアプローチを開発する。
提案手法は, 畳み込みSNNでエミュレートされたイベントデータを処理し, 反応操作による高次軌道計画に適応する。
本研究は,SNN学習の導入,ニューロモルフィックプロセッサの利用,およびニューロモルフィック手法の可能性を探るものである。
論文 参考訳(メタデータ) (2024-04-08T20:42:10Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - NASCTY: Neuroevolution to Attack Side-channel Leakages Yielding
Convolutional Neural Networks [1.1602089225841632]
サイドチャネル解析(SCA)は、デバイスが生成した漏洩を利用して秘密鍵に関する情報を得ることができる。
研究者らは先日、ニューラルネットワーク(NN)が強力なプロファイリングSCAを実行可能であることを発見した。
本稿では,畳み込みニューラルネットワーク(NASCTY-CNN)を応用した攻撃側チャネルトレースに対する神経進化の有効性について検討する。
論文 参考訳(メタデータ) (2023-01-25T19:31:04Z) - How Does a Deep Learning Model Architecture Impact Its Privacy? A
Comprehensive Study of Privacy Attacks on CNNs and Transformers [18.27174440444256]
プライバシー上の懸念は、トレーニングデータから機密情報が漏洩する可能性があるためである。
最近の研究によると、ディープラーニングモデルはさまざまなプライバシー攻撃に弱い。
論文 参考訳(メタデータ) (2022-10-20T06:44:37Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。