論文の概要: Vision Transformer with Adversarial Indicator Token against Adversarial Attacks in Radio Signal Classifications
- arxiv url: http://arxiv.org/abs/2507.00015v1
- Date: Fri, 13 Jun 2025 15:21:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.381884
- Title: Vision Transformer with Adversarial Indicator Token against Adversarial Attacks in Radio Signal Classifications
- Title(参考訳): 無線信号分類における対人攻撃に対する対人指示者トークンを用いた視覚変換器
- Authors: Lu Zhang, Sangarapillai Lambotharan, Gan Zheng, Guisheng Liao, Xuekang Liu, Fabio Roli, Carsten Maple,
- Abstract要約: 本稿では,新たな視覚変換器(ViT)アーキテクチャを提案する。
提案したAdvIトークンは,ViT内の重要な要素として機能し,注意重みに影響を及ぼし,不審または異常な可能性のある入力データ内の領域や特徴を強調する。
- 参考スコア(独自算出の注目度): 33.246218531386326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The remarkable success of transformers across various fields such as natural language processing and computer vision has paved the way for their applications in automatic modulation classification, a critical component in the communication systems of Internet of Things (IoT) devices. However, it has been observed that transformer-based classification of radio signals is susceptible to subtle yet sophisticated adversarial attacks. To address this issue, we have developed a defensive strategy for transformer-based modulation classification systems to counter such adversarial attacks. In this paper, we propose a novel vision transformer (ViT) architecture by introducing a new concept known as adversarial indicator (AdvI) token to detect adversarial attacks. To the best of our knowledge, this is the first work to propose an AdvI token in ViT to defend against adversarial attacks. Integrating an adversarial training method with a detection mechanism using AdvI token, we combine a training time defense and running time defense in a unified neural network model, which reduces architectural complexity of the system compared to detecting adversarial perturbations using separate models. We investigate into the operational principles of our method by examining the attention mechanism. We show the proposed AdvI token acts as a crucial element within the ViT, influencing attention weights and thereby highlighting regions or features in the input data that are potentially suspicious or anomalous. Through experimental results, we demonstrate that our approach surpasses several competitive methods in handling white-box attack scenarios, including those utilizing the fast gradient method, projected gradient descent attacks and basic iterative method.
- Abstract(参考訳): 自然言語処理やコンピュータビジョンといった様々な分野におけるトランスフォーマーの成功は、IoT(Internet of Things)デバイスの通信システムにおいて重要なコンポーネントである自動変調分類の応用の道を開いた。
しかし、トランスフォーマーに基づく無線信号の分類は、微妙で洗練された対向攻撃の影響を受けやすいことが観察されている。
この問題に対処するため,我々は,このような敵攻撃に対抗するために,トランスフォーマーに基づく変調分類システムに対する防御戦略を開発した。
本稿では,新たな視覚変換器(ViT)アーキテクチャを提案する。
私たちの知る限りでは、敵の攻撃から守るためのAdvIトークンをViTで提案するのはこれが初めてです。
本稿では,AdvIトークンを用いた対向トレーニング手法と検出機構を統合し,統合ニューラルネットワークモデルにおけるトレーニング時間防衛とランニング時間防御を組み合わせることにより,異なるモデルを用いた対向的摂動の検出と比較して,システムのアーキテクチャ的複雑さを低減する。
本手法の運用原理について,注意機構を検証して検討する。
提案したAdvIトークンは,ViT内の重要な要素として機能し,注意重みに影響を及ぼし,不審または異常な可能性のある入力データ内の領域や特徴を強調する。
実験結果から, 高速勾配法, 投射勾配降下法, 基本反復法など, ホワイトボックス攻撃シナリオの処理において, 提案手法がいくつかの競合手法を超えることを示した。
関連論文リスト
- Unleashing the Power of Pre-trained Encoders for Universal Adversarial Attack Detection [21.03032944637112]
アドリアック攻撃は、現実世界のAIシステムにとって重要なセキュリティ脅威となる。
本稿では,大規模事前学習型視覚言語モデルCLIPに基づく,軽量な逆検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-01T05:21:45Z) - Protego: Detecting Adversarial Examples for Vision Transformers via Intrinsic Capabilities [21.96572543062238]
トランスフォーマーモデルは自然言語処理に優れており、ビジョンコミュニティはコンピュータビジョン問題におけるその実装を探求している。
本稿では、VTモデルの脆弱性を明らかにするために、3つの事前訓練されたViTモデルに対する6つの共通敵攻撃の攻撃能力について検討する。
本稿では,VTモデルが敵攻撃を防ぐために,変圧器固有の機能を利用した検出フレームワークProtegoを提案する。
論文 参考訳(メタデータ) (2025-01-13T03:54:19Z) - Evaluating the Adversarial Robustness of Detection Transformers [4.3012765978447565]
物体検出変換器(DETR)の進歩にもかかわらず、敵の攻撃に対する堅牢性は未解明のままである。
本稿では,White-box と Black-box の両攻撃下での DETR モデルとその変種を包括的に評価する。
解析の結果, DETR 変種間のネットワーク内転送性は高いが, CNN モデルに対するネットワーク間転送性は限定的であることがわかった。
論文 参考訳(メタデータ) (2024-12-25T00:31:10Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - The Efficacy of Transformer-based Adversarial Attacks in Security
Domains [0.7156877824959499]
システムディフェンダーの対向サンプルに対する変換器のロバスト性およびシステムアタッカーに対する対向強度を評価する。
我々の研究は、セキュリティ領域におけるモデルの攻撃と防御のためにトランスフォーマーアーキテクチャを研究することの重要性を強調している。
論文 参考訳(メタデータ) (2023-10-17T21:45:23Z) - Adaptive Attack Detection in Text Classification: Leveraging Space Exploration Features for Text Sentiment Classification [44.99833362998488]
敵のサンプル検出は、特に急速に進化する攻撃に直面して、適応的なサイバー防御において重要な役割を果たす。
本稿では,BERT(Bidirectional Representations from Transformers)のパワーを活用し,空間探索機能(Space Exploration Features)の概念を提案する。
論文 参考訳(メタデータ) (2023-08-29T23:02:26Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。