論文の概要: Protocol-agnostic and Data-free Backdoor Attacks on Pre-trained Models in RF Fingerprinting
- arxiv url: http://arxiv.org/abs/2505.00881v1
- Date: Thu, 01 May 2025 21:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.844307
- Title: Protocol-agnostic and Data-free Backdoor Attacks on Pre-trained Models in RF Fingerprinting
- Title(参考訳): RFフィンガープリントにおける事前訓練モデルに対するプロトコル非依存・データフリーバックドアアタック
- Authors: Tianya Zhao, Ningning Wang, Junqing Zhang, Xuyu Wang,
- Abstract要約: 教師なし事前訓練モデル(PTM)はより良い一般化を提供し、ラベル付きデータセットを必要としない。
本稿では,RF フィンガープリントにおける PTM に対するデータフリーバックドア攻撃について,徹底的に検討する。
バックドアトレーニングを通じてトリガーとPORをマッピングすることにより、バックドアの動作をPTMに埋め込むことができる。
- 参考スコア(独自算出の注目度): 11.586892344905113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While supervised deep neural networks (DNNs) have proven effective for device authentication via radio frequency (RF) fingerprinting, they are hindered by domain shift issues and the scarcity of labeled data. The success of large language models has led to increased interest in unsupervised pre-trained models (PTMs), which offer better generalization and do not require labeled datasets, potentially addressing the issues mentioned above. However, the inherent vulnerabilities of PTMs in RF fingerprinting remain insufficiently explored. In this paper, we thoroughly investigate data-free backdoor attacks on such PTMs in RF fingerprinting, focusing on a practical scenario where attackers lack access to downstream data, label information, and training processes. To realize the backdoor attack, we carefully design a set of triggers and predefined output representations (PORs) for the PTMs. By mapping triggers and PORs through backdoor training, we can implant backdoor behaviors into the PTMs, thereby introducing vulnerabilities across different downstream RF fingerprinting tasks without requiring prior knowledge. Extensive experiments demonstrate the wide applicability of our proposed attack to various input domains, protocols, and PTMs. Furthermore, we explore potential detection and defense methods, demonstrating the difficulty of fully safeguarding against our proposed backdoor attack.
- Abstract(参考訳): 教師付きディープニューラルネットワーク(DNN)は、無線周波数(RF)フィンガープリントによるデバイス認証に有効であることが証明されているが、それらはドメインシフトの問題とラベル付きデータの不足によって妨げられている。
大規模言語モデルの成功により、より高度な一般化を提供し、ラベル付きデータセットを必要としない教師なし事前訓練モデル(PTM)への関心が高まっ、上記の問題に対処する可能性がある。
しかし、RFフィンガープリントにおけるPTMの固有の脆弱性はいまだに十分に調査されていない。
本稿では,RFフィンガープリントにおける PTM に対するデータフリーバックドア攻撃を徹底的に調査し,攻撃者が下流データやラベル情報,トレーニングプロセスにアクセスできない現実的なシナリオに着目した。
バックドア攻撃を実現するため,PTMのトリガセットと事前定義された出力表現(POR)を慎重に設計する。
バックドアトレーニングを通じてトリガーとPORをマッピングすることにより、バックドアの動作をPTMに埋め込むことで、事前の知識を必要とせずに、下流のRFフィンガープリントタスクに脆弱性を導入することができる。
広範囲にわたる実験により、提案した攻撃が様々な入力領域、プロトコル、およびPTMに適用可能であることが示された。
さらに,本提案したバックドア攻撃に対する完全防御の難しさを実証し,潜在的な検出・防御方法について検討した。
関連論文リスト
- PCAP-Backdoor: Backdoor Poisoning Generator for Network Traffic in CPS/IoT Environments [0.6629765271909503]
我々は,PCAPデータセットに対するバックドア中毒攻撃を容易にする新技術であるtextttPCAP-Backdoorを紹介した。
実際のCPS(Cyber-Physical Systems)とIoT(Internet of Things)ネットワークトラフィックデータセットの実験では、攻撃者がトレーニングデータセット全体の1%以下を中毒することで、モデルを効果的にバックドアできることが示されている。
論文 参考訳(メタデータ) (2025-01-26T15:49:34Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Model Supply Chain Poisoning: Backdooring Pre-trained Models via Embedding Indistinguishability [61.549465258257115]
そこで我々は,PTMに埋め込まれたバックドアをモデルサプライチェーンに効率的に移動させる,新しい,より厳しいバックドア攻撃であるTransTrojを提案する。
実験の結果,本手法はSOTAタスク非依存のバックドア攻撃より有意に優れていた。
論文 参考訳(メタデータ) (2024-01-29T04:35:48Z) - Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks for Tabular Data [14.415796842972563]
本稿では,Deep Neural Networks (DNN) を用いた表型データに対するバックドア攻撃の包括的解析について述べる。
本稿では,ステルス性を維持しつつ攻撃性能に優れるインバウンド攻撃(in-bounds attack)を提案する。
以上の結果から,100%の攻撃成功率を達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-13T18:39:44Z) - Setting the Trap: Capturing and Defeating Backdoors in Pretrained
Language Models through Honeypots [68.84056762301329]
近年の研究では、バックドア攻撃に対するプレトレーニング言語モデル(PLM)の感受性が明らかにされている。
バックドア情報のみを吸収するために,ハニーポットモジュールをオリジナルのPLMに統合する。
我々の設計は、PLMの低層表現が十分なバックドア特徴を持っているという観察に動機づけられている。
論文 参考訳(メタデータ) (2023-10-28T08:21:16Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Red Alarm for Pre-trained Models: Universal Vulnerability to
Neuron-Level Backdoor Attacks [98.15243373574518]
事前訓練されたモデル(PTM)は、下流の様々なタスクで広く使われている。
本研究では,バックドアアタックによって微調整されたPTMを容易に制御できるPTMの普遍的脆弱性を実証する。
論文 参考訳(メタデータ) (2021-01-18T10:18:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。