論文の概要: AoA-Based Physical Layer Authentication in Analog Arrays under Impersonation Attacks
- arxiv url: http://arxiv.org/abs/2407.08282v1
- Date: Thu, 11 Jul 2024 08:30:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 18:19:14.377560
- Title: AoA-Based Physical Layer Authentication in Analog Arrays under Impersonation Attacks
- Title(参考訳): 擬似攻撃によるアナログアレーのAoAに基づく物理層認証
- Authors: Muralikrishnan Srinivasan, Linda Senigagliesi, Hui Chen, Arsenia Chorti, Marco Baldi, Henk Wymeersch,
- Abstract要約: 本稿では、アナログアレイ多重出力多重出力(MIMO)システムにおける認証手段として、到着角(AoA)の使用について議論する。
アナログアレイを備えた基地局は、認証されたパイロット送信から推定されるAoAに基づいてユーザを認証し、アクティブアタッカーは送信された信号を操作して偽装攻撃をマウントする。
- 参考スコア(独自算出の注目度): 21.416177169435265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We discuss the use of angle of arrival (AoA) as an authentication measure in analog array multiple-input multiple-output (MIMO) systems. A base station equipped with an analog array authenticates users based on the AoA estimated from certified pilot transmissions, while active attackers manipulate their transmitted signals to mount impersonation attacks. We study several attacks of increasing intensity (captured through the availability of side information at the attackers) and assess the performance of AoA-based authentication using one-class classifiers. Our results show that some attack techniques with knowledge of the combiners at the verifier are effective in falsifying the AoA and compromising the security of the considered type of physical layer authentication.
- Abstract(参考訳): 本稿では、アナログアレイ多重出力多重出力(MIMO)システムにおける認証手段として、到着角(AoA)の使用について議論する。
アナログアレイを備えた基地局は、認証されたパイロット送信から推定されるAoAに基づいてユーザを認証し、アクティブアタッカーは送信された信号を操作して偽装攻撃をマウントする。
本研究では,攻撃者側情報の入手によって得られる強度の増大に対する攻撃について検討し,一級分類器を用いたAoA認証の性能評価を行った。
以上の結果から, 検証器におけるコンバインダの知識を持つ攻撃手法は, AoAの改ざんや, 検討対象の物理層認証のセキュリティ向上に有効であることが示唆された。
関連論文リスト
- Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Data-Driven Subsampling in the Presence of an Adversarial Actor [9.718390110364789]
深層学習に基づく自動変調分類(AMC)は、軍事と民間の両方のユースケースで応用される可能性があるため、大きな注目を集めている。
データ駆動サブサンプリング技術は、AMCの計算複雑性とトレーニング時間に関連する課題を克服するために利用されてきた。
本稿では,AMCとサブサンプリングの両方に深層学習モデルを用いたAMCシステムに対する敵攻撃の効果について検討する。
論文 参考訳(メタデータ) (2024-01-07T14:02:22Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - AudioFool: Fast, Universal and synchronization-free Cross-Domain Attack
on Speech Recognition [0.9913418444556487]
オーバー・ザ・エア(OTA)モデルと互換性のあるロバスト攻撃に必要な特性について検討する。
任意の特性を持つ攻撃を発生させる手法を設計する。
本手法を標準キーワード分類タスクで評価し,OTAで解析する。
論文 参考訳(メタデータ) (2023-09-20T16:59:22Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Conditional Generative Adversarial Network for keystroke presentation
attack [0.0]
本稿では,キーストローク認証システムへのプレゼンテーションアタックの展開を目的とした新しいアプローチを提案する。
我々の考えは、認証されたユーザを偽装するために使用できる合成キーストロークデータを生成するために、条件付き生成適応ネットワーク(cGAN)を使用することである。
その結果、cGANは、キーストローク認証システムを無効にするために使用できるキーストロークダイナミックスパターンを効果的に生成できることが示唆された。
論文 参考訳(メタデータ) (2022-12-16T12:45:16Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Diagnosing Vulnerability of Variational Auto-Encoders to Adversarial
Attacks [80.73580820014242]
所定の潜入コード(監視攻撃)を取得するためにデータポイントを変更するか、または劇的に異なるコード(監視されていない攻撃)を取得する方法を示します。
モデル修正がvaesのロバスト性に及ぼす影響を調べ,定量化のための指標を提案する。
論文 参考訳(メタデータ) (2021-03-10T14:23:20Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。