論文の概要: Adversarial Attacks on Brain-Inspired Hyperdimensional Computing-Based
Classifiers
- arxiv url: http://arxiv.org/abs/2006.05594v1
- Date: Wed, 10 Jun 2020 01:09:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 06:16:36.546896
- Title: Adversarial Attacks on Brain-Inspired Hyperdimensional Computing-Based
Classifiers
- Title(参考訳): 脳誘発超次元計算型分類器の逆攻撃
- Authors: Fangfang Yang and Shaolei Ren
- Abstract要約: 超次元コンピューティング(HDC)は、脳の認知を模倣し、ランダムなハイパーベクターを利用して特徴を表現し、分類タスクを実行する。
それらは、デバイス分類における従来のディープニューラルネットワーク(DNN)の魅力ある代替品として、あるいは代替品として認識されている。
しかし、HDC分類器の最先端の設計は、主にセキュリティに配慮したものであり、敵の入力に対する安全性と免疫に疑問を呈している。
- 参考スコア(独自算出の注目度): 15.813045384664441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being an emerging class of in-memory computing architecture, brain-inspired
hyperdimensional computing (HDC) mimics brain cognition and leverages random
hypervectors (i.e., vectors with a dimensionality of thousands or even more) to
represent features and to perform classification tasks. The unique hypervector
representation enables HDC classifiers to exhibit high energy efficiency, low
inference latency and strong robustness against hardware-induced bit errors.
Consequently, they have been increasingly recognized as an appealing
alternative to or even replacement of traditional deep neural networks (DNNs)
for local on device classification, especially on low-power Internet of Things
devices. Nonetheless, unlike their DNN counterparts, state-of-the-art designs
for HDC classifiers are mostly security-oblivious, casting doubt on their
safety and immunity to adversarial inputs. In this paper, we study for the
first time adversarial attacks on HDC classifiers and highlight that HDC
classifiers can be vulnerable to even minimally-perturbed adversarial samples.
Concretely, using handwritten digit classification as an example, we construct
a HDC classifier and formulate a grey-box attack problem, where an attacker's
goal is to mislead the target HDC classifier to produce erroneous prediction
labels while keeping the amount of added perturbation noise as little as
possible. Then, we propose a modified genetic algorithm to generate adversarial
samples within a reasonably small number of queries. Our results show that
adversarial images generated by our algorithm can successfully mislead the HDC
classifier to produce wrong prediction labels with a high probability (i.e.,
78% when the HDC classifier uses a fixed majority rule for decision). Finally,
we also present two defense strategies -- adversarial training and retraining--
to strengthen the security of HDC classifiers.
- Abstract(参考訳): 脳にインスパイアされた超次元コンピューティング(HDC)は、新しいインメモリコンピューティングアーキテクチャのクラスであり、脳の認知を模倣し、ランダムなハイパーベクトル(数千以上の次元を持つベクトル)を活用して特徴を表現し、分類タスクを実行する。
独自のハイパーベクトル表現により、HDC分類器は高いエネルギー効率、低推論遅延、ハードウェアによるビットエラーに対する強い堅牢性を示すことができる。
その結果、特に低電力のモノのインターネットデバイスにおいて、従来のディープニューラルネットワーク(dnn)をローカルなオンデバイス分類に置き換える、あるいは置き換える魅力的な選択肢として認識されるようになった。
それにもかかわらず、HDC分類器の最先端の設計は、DNNのものと異なり、安全と敵の入力に対する免疫に疑念を抱いている。
本稿では,HDC分類器に対する敵対攻撃を初めて検討し,HDC分類器が最小摂動対向サンプルに対して脆弱であることを示す。
具体的には、手書きの数字分類を例として、hdc分類器を構築し、ターゲットのhdc分類器を誤解して誤った予測ラベルを生成することを目標とするグレイボックス攻撃問題を、付加摂動ノイズを極力少なく抑えながら定式化する。
そこで本研究では,比較的少数のクエリにおいて,対数サンプルを生成する遺伝的アルゴリズムを提案する。
その結果,提案アルゴリズムが生成した敵対画像は,HDC分類器を誤誘導して高い確率で誤予測ラベルを生成することができた(HDC分類器が決定に一定の多数決ルールを使用する場合の78%)。
最後に,hdc分類器のセキュリティを強化するために,攻撃的訓練と再訓練という2つの防御戦略も提示する。
関連論文リスト
- Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Towards Robust Domain Generation Algorithm Classification [1.4542411354617986]
我々は32個のホワイトボックス攻撃を実装し、そのうち19個は非常に効果的であり、未硬化の分類器に対して$approx$100%の偽陰性率(FNR)を誘導する。
本稿では, 対角線空間ベクトルと離散化された対角線領域を利用して, 強靭性を大幅に向上させる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-09T11:56:29Z) - HEAL: Brain-inspired Hyperdimensional Efficient Active Learning [13.648600396116539]
本稿では,HDC分類に適した新しい能動学習フレームワークであるHyperdimensional Efficient Active Learning (HEAL)を紹介する。
HEALは、不確実性と多様性に基づく買収を通じて、ラベルなしのデータポイントを積極的に注釈付けし、より効率的なデータセットアノテーションと労働コストの削減につながる。
評価の結果,HEALは多種多様なAL品質のベースラインを超越し,多くのBNNや多様性誘導AL手法よりも顕著に高速な獲得を実現していることがわかった。
論文 参考訳(メタデータ) (2024-02-17T08:41:37Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Robust-by-Design Classification via Unitary-Gradient Neural Networks [66.17379946402859]
安全クリティカルシステムにおけるニューラルネットワークの使用には、敵攻撃が存在するため、安全で堅牢なモデルが必要である。
任意の入力 x の最小逆摂動を知るか、または同値に、分類境界から x の距離は、分類ロバスト性を評価し、証明可能な予測を与える。
Unitary-Gradient Neural Networkと呼ばれる新しいネットワークアーキテクチャが紹介される。
実験結果から,提案アーキテクチャは符号付き距離を近似し,単一の推論コストでxのオンライン分類が可能であることがわかった。
論文 参考訳(メタデータ) (2022-09-09T13:34:51Z) - EnHDC: Ensemble Learning for Brain-Inspired Hyperdimensional Computing [2.7462881838152913]
本稿では,超次元コンピューティングの文脈において,アンサンブル学習を探求する最初の試みについて述べる。
本稿では,EnHDCと呼ばれる最初のアンサンブルHDCモデルを提案する。
本研究では,1つのHDC分類器に対して平均3.2%の精度向上を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-25T09:54:00Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。