論文の概要: Membership Inference Attack and Defense for Wireless Signal Classifiers
with Deep Learning
- arxiv url: http://arxiv.org/abs/2107.12173v1
- Date: Thu, 22 Jul 2021 17:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:44:04.370175
- Title: Membership Inference Attack and Defense for Wireless Signal Classifiers
with Deep Learning
- Title(参考訳): 深層学習を用いた無線信号分類器の会員推測攻撃と防御
- Authors: Yi Shi and Yalin E. Sagduyu
- Abstract要約: 無線信号分類器からプライベート情報を漏らすために、オーバー・ザ・エア・メンバシップ推論攻撃(MIA)が提示される。
シャドーMIAモデルを構築し、敵を騙すことにより、MIAに対する積極的な防御を開発する。
- 参考スコア(独自算出の注目度): 5.123557241121498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An over-the-air membership inference attack (MIA) is presented to leak
private information from a wireless signal classifier. Machine learning (ML)
provides powerful means to classify wireless signals, e.g., for PHY-layer
authentication. As an adversarial machine learning attack, the MIA infers
whether a signal of interest has been used in the training data of a target
classifier. This private information incorporates waveform, channel, and device
characteristics, and if leaked, can be exploited by an adversary to identify
vulnerabilities of the underlying ML model (e.g., to infiltrate the PHY-layer
authentication). One challenge for the over-the-air MIA is that the received
signals and consequently the RF fingerprints at the adversary and the intended
receiver differ due to the discrepancy in channel conditions. Therefore, the
adversary first builds a surrogate classifier by observing the spectrum and
then launches the black-box MIA on this classifier. The MIA results show that
the adversary can reliably infer signals (and potentially the radio and channel
information) used to build the target classifier. Therefore, a proactive
defense is developed against the MIA by building a shadow MIA model and fooling
the adversary. This defense can successfully reduce the MIA accuracy and
prevent information leakage from the wireless signal classifier.
- Abstract(参考訳): 無線信号分類器からプライベート情報を漏らすために、オーバー・ザ・エア・メンバシップ推論攻撃(MIA)が提示される。
機械学習(ML)は、PHY層認証などの無線信号を分類する強力な手段を提供する。
敵機械学習攻撃として、MIAは、ターゲット分類器の訓練データに関心の信号が使われたかどうかを推定する。
このプライベート情報には、波形、チャネル、デバイスの特徴が含まれており、もし漏洩したら、敵が基盤となるMLモデルの脆弱性(例えば、PHY層認証に侵入する)を特定するために悪用することができる。
オーバー・ザ・エアMIAの課題の1つは、受信した信号と、その結果、相手のRF指紋と意図する受信機がチャンネル条件の相違により異なることである。
そのため、相手はまずスペクトルを観察して代理分類器を構築し、次にこの分類器上でブラックボックスMIAを起動する。
MIAの結果は、敵がターゲット分類器を構築するために使用する信号(およびおそらくは無線およびチャネル情報)を確実に推測できることを示している。
そのため、影MIAモデルを構築し、敵を騙すことにより、MIAに対する積極的な防御を開発する。
この防御はMIA精度を低減し、無線信号分類器からの情報漏洩を防止する。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - MIA-BAD: An Approach for Enhancing Membership Inference Attack and its
Mitigation with Federated Learning [6.510488168434277]
メンバシップ推論攻撃(MIA)は、機械学習(ML)モデルのプライバシを妥協するための一般的なパラダイムである。
バッチ・ワイズ・アサート・データセット(MIA-BAD)を用いた強化されたメンバーシップ推論攻撃を提案する。
FLを用いたMLモデルのトレーニング方法を示すとともに,提案したMIA-BADアプローチによる脅威をFLアプローチで緩和する方法について検討する。
論文 参考訳(メタデータ) (2023-11-28T06:51:26Z) - Magmaw: Modality-Agnostic Adversarial Attacks on Machine Learning-Based Wireless Communication Systems [21.878711118514342]
Magmawは、無線チャネルを介して送信される任意のマルチモーダル信号に対して、普遍的な逆方向の摂動を発生させる新しい無線攻撃手法である。
我々は,マグモが強力な防御機構が存在する場合でも,優れた性能低下を引き起こすことを示した。
論文 参考訳(メタデータ) (2023-11-01T00:33:59Z) - Is Semantic Communications Secure? A Tale of Multi-Domain Adversarial
Attacks [70.51799606279883]
セマンティック・コミュニケーションのためのディープ・ニューラル・ネットワーク(DNN)に対するテスト・タイム・アタックを導入する。
再建損失が低い場合でも,伝達情報のセマンティクスを変更可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:13:22Z) - A Convolutional Attention Based Deep Network Solution for UAV Network
Attack Recognition over Fading Channels and Interference [3.1230069539161405]
本研究は、クラスタ化遅延線(CDL)チャネル上に多重化(OFDM)受信機を備えたUAVの攻撃を検出するためのディープラーニング(DL)アプローチを提供する。
予測アルゴリズムは、訓練中に発生しない攻撃識別に関して一般化可能である。
攻撃認識のタイミング要件に関するより深い調査では、訓練後、攻撃開始後に必要な最低時間は100ミリ秒であることが示されている。
論文 参考訳(メタデータ) (2022-07-16T22:08:12Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Open-set Adversarial Defense [93.25058425356694]
オープンセット認識システムは敵攻撃に対して脆弱であることを示す。
本研究の目的は,OSAD(Open-Set Adrial Defense, Open-Set Adrial Defense)機構の必要性である。
本稿はOSAD問題に対する解決策として,OSDN(Open-Set Defense Network)を提案する。
論文 参考訳(メタデータ) (2020-09-02T04:35:33Z) - Channel-Aware Adversarial Attacks Against Deep Learning-Based Wireless
Signal Classifiers [43.156901821548935]
本稿では,ディープラーニングに基づく無線信号分類器に対するチャネル認識型敵攻撃について述べる。
雑音でトレーニングデータを増強するランダムな平滑化に基づく認証された防御を導入し、変調分類器を敵の摂動に頑健にする。
論文 参考訳(メタデータ) (2020-05-11T15:42:54Z) - Over-the-Air Adversarial Attacks on Deep Learning Based Modulation
Classifier over Wireless Channels [43.156901821548935]
本稿では,送信機,受信機,敵から成り立つ無線通信システムについて考察する。
一方、敵は送信機の信号に重畳されるように、無線で送信する。
本稿では,敵から受信機へのチャネルを考慮し,現実的な回避攻撃を行う方法について述べる。
論文 参考訳(メタデータ) (2020-02-05T18:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。