論文の概要: Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing
- arxiv url: http://arxiv.org/abs/2202.07802v1
- Date: Wed, 16 Feb 2022 00:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 02:45:47.814928
- Title: Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing
- Title(参考訳): 移動型クラウドセンシングにおける生成的広告ネットワーク駆動型広告タスク検出
- Authors: Zhiyan Chen and Burak Kantarci
- Abstract要約: クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
- 参考スコア(独自算出の注目度): 5.675436513661266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile Crowdsensing systems are vulnerable to various attacks as they build
on non-dedicated and ubiquitous properties. Machine learning (ML)-based
approaches are widely investigated to build attack detection systems and ensure
MCS systems security. However, adversaries that aim to clog the sensing
front-end and MCS back-end leverage intelligent techniques, which are
challenging for MCS platform and service providers to develop appropriate
detection frameworks against these attacks. Generative Adversarial Networks
(GANs) have been applied to generate synthetic samples, that are extremely
similar to the real ones, deceiving classifiers such that the synthetic samples
are indistinguishable from the originals. Previous works suggest that GAN-based
attacks exhibit more crucial devastation than empirically designed attack
samples, and result in low detection rate at the MCS platform. With this in
mind, this paper aims to detect intelligently designed illegitimate sensing
service requests by integrating a GAN-based model. To this end, we propose a
two-level cascading classifier that combines the GAN discriminator with a
binary classifier to prevent adversarial fake tasks. Through simulations, we
compare our results to a single-level binary classifier, and the numeric
results show that proposed approach raises Adversarial Attack Detection Rate
(AADR), from $0\%$ to $97.5\%$ by KNN/NB, from $45.9\%$ to $100\%$ by Decision
Tree. Meanwhile, with two-levels classifiers, Original Attack Detection Rate
(OADR) improves for the three binary classifiers, with comparison, such as NB
from $26.1\%$ to $61.5\%$.
- Abstract(参考訳): モバイルのクラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるさまざまな攻撃に対して脆弱である。
機械学習(ML)ベースのアプローチは、攻撃検知システムを構築し、MCSシステムのセキュリティを確保するために広く研究されている。
しかし、センシングフロントエンドとMCSバックエンドのクローンを目指す敵はインテリジェントな技術を活用しており、MCSプラットフォームやサービスプロバイダがこれらの攻撃に対して適切な検出フレームワークを開発することは困難である。
generative adversarial network (gans) は、実際のサンプルと非常によく似た合成サンプルを生成するために用いられており、合成サンプルがオリジナルと区別できないような分類器を欺いている。
以前の研究から、ganベースの攻撃は、経験的に設計された攻撃サンプルよりも重大な破壊を示し、mcsプラットフォームでの検知率が低いことが示唆された。
そこで本稿は,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
そこで本研究では,GAN識別器とバイナリ分類器を組み合わせた2段階のカスケード分類器を提案する。
シミュレーションの結果を1段階のバイナリ分類器と比較し,提案手法が敵の攻撃検出率(aadr)を0\%$から97.5\%$ by knn/nb, 45.9\%$から100\%$ by decision tree に引き上げることを示した。
一方、2レベル分類器では、元の攻撃検出レート(OADR)が3つのバイナリ分類器で改善され、NBは26.1\%$から61.5\%$に比較される。
関連論文リスト
- LLM-based Continuous Intrusion Detection Framework for Next-Gen Networks [0.7100520098029439]
このフレームワークはトランスフォーマーエンコーダアーキテクチャを採用しており、悪意のあるトラフィックと正当なトラフィックを区別するために、双方向に隠されたパターンをキャプチャする。
このシステムは、ガウス混合モデル(GMM)を高次元BERT埋め込みから派生したクラスタ特徴に活用することにより、未知の攻撃タイプを段階的に同定する。
新たな未知の攻撃クラスタの統合後も、このフレームワークは高いレベルで動作し続け、分類精度とリコールの両方で95.6%を達成している。
論文 参考訳(メタデータ) (2024-11-04T18:12:14Z) - Comprehensive Botnet Detection by Mitigating Adversarial Attacks, Navigating the Subtleties of Perturbation Distances and Fortifying Predictions with Conformal Layers [1.6001193161043425]
ボットネット(Botnet)は、悪意あるアクターによって制御されるコンピュータネットワークで、重要なサイバーセキュリティ上の課題を提示する。
本研究は、機械学習ベースのボットネット検出システムを弱体化させることを目的として、攻撃者が引き起こす高度な敵操作に対処する。
ISCXデータセットとISOTデータセットに基づいてトレーニングされた機械学習とディープラーニングアルゴリズムを活用するフローベース検出アプローチを導入する。
論文 参考訳(メタデータ) (2024-09-01T08:53:21Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - Audio Anti-spoofing Using a Simple Attention Module and Joint
Optimization Based on Additive Angular Margin Loss and Meta-learning [43.519717601587864]
本研究では,畳み込み層における特徴写像に対する3次元の注意重みを推定するための単純な注意モジュールを提案する。
2進分類のための重み付き加法的角縁損失に基づく共同最適化手法を提案する。
提案手法は, プールEERが0.99%, min t-DCFが0.0289。
論文 参考訳(メタデータ) (2022-11-17T21:25:29Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Mitigating Closed-model Adversarial Examples with Bayesian Neural
Modeling for Enhanced End-to-End Speech Recognition [18.83748866242237]
厳密で実証的な「閉モデル対逆ロバスト性」の設定に焦点を当てる。
本稿では,ベイズニューラルネットワーク(BNN)を用いた対角検出器を提案する。
検出率を+2.77から+5.42%(相対+3.03から+6.26%)に改善し、単語エラー率をLibriSpeechデータセットで5.02から7.47%に下げる。
論文 参考訳(メタデータ) (2022-02-17T09:17:58Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。