論文の概要: Adversarial Attacks Against Deep Learning-Based Radio Frequency Fingerprint Identification
- arxiv url: http://arxiv.org/abs/2512.12002v1
- Date: Fri, 12 Dec 2025 19:33:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.067739
- Title: Adversarial Attacks Against Deep Learning-Based Radio Frequency Fingerprint Identification
- Title(参考訳): 深層学習に基づく無線周波数フィンガープリント識別に対する敵対的攻撃
- Authors: Jie Ma, Junqing Zhang, Guanxiong Shen, Alan Marshall, Chip-Hong Chang,
- Abstract要約: RFFI(Radio frequency fingerprint Identification)は、モノのインターネット(IoT)デバイスの軽量認証技術である。
近年の研究では、深い学習に基づくRFFIは敵の攻撃に弱いことが示されている。
- 参考スコア(独自算出の注目度): 27.217069859196133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radio frequency fingerprint identification (RFFI) is an emerging technique for the lightweight authentication of wireless Internet of things (IoT) devices. RFFI exploits deep learning models to extract hardware impairments to uniquely identify wireless devices. Recent studies show deep learning-based RFFI is vulnerable to adversarial attacks. However, effective adversarial attacks against different types of RFFI classifiers have not yet been explored. In this paper, we carried out a comprehensive investigations into different adversarial attack methods on RFFI systems using various deep learning models. Three specific algorithms, fast gradient sign method (FGSM), projected gradient descent (PGD), and universal adversarial perturbation (UAP), were analyzed. The attacks were launched to LoRa-RFFI and the experimental results showed the generated perturbations were effective against convolutional neural networks (CNNs), long short-term memory (LSTM) networks, and gated recurrent units (GRU). We further used UAP to launch practical attacks. Special factors were considered for the wireless context, including implementing real-time attacks, the effectiveness of the attacks over a period of time, etc. Our experimental evaluation demonstrated that UAP can successfully launch adversarial attacks against the RFFI, achieving a success rate of 81.7% when the adversary almost has no prior knowledge of the victim RFFI systems.
- Abstract(参考訳): RFFI(Radio frequency fingerprint Identification)は、モノのインターネット(IoT)デバイスの軽量認証技術である。
RFFIはディープラーニングモデルを利用してハードウェア障害を抽出し、無線デバイスをユニークに識別する。
近年の研究では、深い学習に基づくRFFIは敵の攻撃に弱いことが示されている。
しかし,異なるタイプのRFFI分類器に対する効果的な敵攻撃はまだ検討されていない。
本稿では,様々な深層学習モデルを用いたRFFIシステムに対する様々な敵攻撃手法に関する包括的調査を行った。
3つのアルゴリズム,高速勾配法(FGSM),投影勾配降下法(PGD),普遍対向摂動法(UAP)を解析した。
この攻撃はLoRa-RFFIに発射され、生成された摂動は畳み込みニューラルネットワーク(CNN)、長期記憶(LSTM)ネットワーク、ゲートリカレントユニット(GRU)に対して有効であることを示した。
私たちはさらにUAPを使って実践的な攻撃を開始した。
リアルタイムアタックの実施,一定期間のアタックの有効性など,無線環境における特殊要因について検討した。
実験により,UAPはRFFIに対する攻撃を成功させることができ,相手がRFFIシステムの事前知識をほとんど持っていない場合,81.7%の成功率を達成した。
関連論文リスト
- Towards Channel-Robust and Receiver-Independent Radio Frequency Fingerprint Identification [23.32212243151147]
高周波指紋認証(RFFI)は、モノのインターネット(IoT)デバイスを認証するための新しい手法である。
深層学習に基づくRFFIは優れた性能を示しているが、まだ研究課題が残っている。
本稿では,3段階のRFFI手法を提案する。
論文 参考訳(メタデータ) (2025-12-12T22:32:08Z) - An Adversarial-Driven Experimental Study on Deep Learning for RF Fingerprinting [6.145167956956878]
無線周波数(RF)フィンガープリントは、有望な物理層デバイス識別機構として登場した。
ディープラーニング(DL)手法はこの領域で最先端のパフォーマンスを実証している。
生の受信信号に対するDLモデルの訓練により,RF指紋と環境・信号パターンの特徴を絡み合わせる結果が得られた。
論文 参考訳(メタデータ) (2025-07-18T17:42:20Z) - Adversarial Attacks on Deep Learning-Based False Data Injection Detection in Differential Relays [3.4061238650474666]
本稿では,False Data Injection Attacks (FDIA) に使用される既存のディープラーニングベーススキーム (DLS) を,FDIA(False Data Injection Attacks) としてスマートグリッドで回避できることを示す。
本稿では, DLS 脆弱性を利用したFast Gradient Sign Method を利用した新たな攻撃フレームワークを提案する。
本研究は,DLSに基づくFDIA検出に対する敵対的攻撃による重大な脅威を浮き彫りにし,スマートグリッドにおける堅牢なサイバーセキュリティ対策の必要性を浮き彫りにし,対戦型FDIAに対するモデルロバスト性を高めるための対戦型トレーニングの有効性を示した。
論文 参考訳(メタデータ) (2025-06-24T04:22:26Z) - Learning in Multiple Spaces: Few-Shot Network Attack Detection with Metric-Fused Prototypical Networks [47.18575262588692]
本稿では,数発の攻撃検出に適した新しいマルチスペースプロトタイプ学習フレームワークを提案する。
Polyakの平均的なプロトタイプ生成を活用することで、このフレームワークは学習プロセスを安定化し、稀でゼロデイの攻撃に効果的に適応する。
ベンチマークデータセットによる実験結果から、MSPLは、目立たない、新しい攻撃タイプを検出する従来のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-28T00:09:46Z) - Transfer-based Adversarial Poisoning Attacks for Online (MIMO-)Deep Receviers [44.051757540209756]
本稿では,オンラインレシーバーに対するトランスファーベースの逆毒攻撃手法を提案する。
攻撃対象の知識がなければ、摂動はパイロットに注入され、オンラインのディープレシーバーに毒を盛る。
シミュレーションの結果,提案した毒殺攻撃はオンライン受信機の性能を著しく低下させることが示唆された。
論文 参考訳(メタデータ) (2024-09-04T04:17:57Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - One-shot Generative Distribution Matching for Augmented RF-based UAV Identification [0.0]
この研究は、限られたRF環境下でRFフィンガープリントを用いて無人航空機(UAV)を特定するという課題に対処する。
RF信号の複雑さと可変性は、環境干渉やハードウェアの不完全性の影響を受け、従来のRFベースの識別手法を効果的にしないことが多い。
変換されたRF信号を増強するためのワンショット生成法は、UAV識別を著しく改善する。
論文 参考訳(メタデータ) (2023-01-20T02:35:43Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - TANTRA: Timing-Based Adversarial Network Traffic Reshaping Attack [46.79557381882643]
本稿では,TANTRA(Adversarial Network Traffic Reshaping Attack)を提案する。
我々の回避攻撃は、ターゲットネットワークの良性パケット間の時間差を学習するために訓練された長い短期記憶(LSTM)ディープニューラルネットワーク(DNN)を利用する。
TANTRAは、ネットワーク侵入検出システム回避の平均成功率99.99%を達成します。
論文 参考訳(メタデータ) (2021-03-10T19:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。