論文の概要: Studying the Robustness of Anti-adversarial Federated Learning Models
Detecting Cyberattacks in IoT Spectrum Sensors
- arxiv url: http://arxiv.org/abs/2202.00137v1
- Date: Mon, 31 Jan 2022 22:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 02:53:52.815670
- Title: Studying the Robustness of Anti-adversarial Federated Learning Models
Detecting Cyberattacks in IoT Spectrum Sensors
- Title(参考訳): IoTスペクトルセンサにおけるサイバーアタック検出のための対敵フェデレーション学習モデルのロバスト性の検討
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an, Timo
Schenk, Adrian Lars Benjamin Iten, G\'er\^ome Bovet, Gregorio Mart\'inez
P\'erez, and Burkhard Stiller
- Abstract要約: デバイスフィンガープリントと機械学習(ML/DL)が組み合わさって、リソース制約スペクトルセンサによって管理されるデータを対象としたサイバー攻撃を検出する際に、有望な性能を報告している。
モデルのトレーニングに必要なデータ量と、そのようなシナリオのプライバシに関する懸念は、集中型ML/DLベースのアプローチの適用性を制限します。
- 参考スコア(独自算出の注目度): 0.4925222726301578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Device fingerprinting combined with Machine and Deep Learning (ML/DL) report
promising performance when detecting cyberattacks targeting data managed by
resource-constrained spectrum sensors. However, the amount of data needed to
train models and the privacy concerns of such scenarios limit the applicability
of centralized ML/DL-based approaches. Federated learning (FL) addresses these
limitations by creating federated and privacy-preserving models. However, FL is
vulnerable to malicious participants, and the impact of adversarial attacks on
federated models detecting spectrum sensing data falsification (SSDF) attacks
on spectrum sensors has not been studied. To address this challenge, the first
contribution of this work is the creation of a novel dataset suitable for FL
and modeling the behavior (usage of CPU, memory, or file system, among others)
of resource-constrained spectrum sensors affected by different SSDF attacks.
The second contribution is a pool of experiments analyzing and comparing the
robustness of federated models according to i) three families of spectrum
sensors, ii) eight SSDF attacks, iii) four scenarios dealing with unsupervised
(anomaly detection) and supervised (binary classification) federated models,
iv) up to 33% of malicious participants implementing data and model poisoning
attacks, and v) four aggregation functions acting as anti-adversarial
mechanisms to increase the models robustness.
- Abstract(参考訳): デバイスフィンガープリントと機械学習(ML/DL)が組み合わさって、リソース制約スペクトルセンサによって管理されるデータを対象としたサイバー攻撃を検出する際に、有望な性能を報告している。
しかし、モデルのトレーニングに必要なデータ量とそのようなシナリオのプライバシー上の懸念は、集中型ML/DLベースのアプローチの適用性を制限している。
フェデレーション学習(FL)は、フェデレーションとプライバシ保護モデルを作成することで、これらの制限に対処する。
しかし、FLは悪意のある参加者に対して脆弱であり、スペクトルセンサに対するスペクトルセンシングデータファルシフィケーション(SSDF)攻撃を検出するフェデレーションモデルに対する敵攻撃の影響は研究されていない。
この課題に対処するために、この研究の最初の貢献は、FLに適した新しいデータセットを作成し、異なるSSDF攻撃に影響を受けるリソース制約されたスペクトルセンサーの挙動(CPU、メモリ、ファイルシステムなど)をモデル化することである。
第2の貢献は、フェデレーションモデルのロバスト性を分析して比較する実験のプールである。
一 スペクトルセンサの3つの系統
二 SSDF攻撃八件
三 教師なし(異常検出)及び監督付き(二分分類)連合モデルを扱う四つのシナリオ
四 悪意のある参加者の33%がデータ及びモデル中毒攻撃を実施し、及び
五 モデルロバスト性を高めるための反敵機構として作用する4つの凝集関数
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - MTS-DVGAN: Anomaly Detection in Cyber-Physical Systems using a Dual
Variational Generative Adversarial Network [7.889342625283858]
深層生成モデルは、ラベル付き情報に頼ることなく、サイバー物理システム(CPS)の脆弱性を軽減し、新しいサイバー物理攻撃を検出することを約束している。
本稿では、MST-DVGANという、教師なし二重変分生成対向モデルを提案する。
中心となる概念は、再構成された異常サンプルと正常なサンプルとの区別を広げることで、モデルの識別能力を高めることである。
論文 参考訳(メタデータ) (2023-11-04T11:19:03Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - STDLens: Model Hijacking-Resilient Federated Learning for Object
Detection [13.895922908738507]
Federated Learning (FL)は、ディープラーニングに基づくオブジェクト検出モデルをクライアントの分散集団でトレーニングするための協調学習フレームワークとして人気を集めている。
その利点にもかかわらず、FLはモデルハイジャックに弱い。
本稿では,このような攻撃に対してFLを保護するための原則的アプローチであるSTDLensを紹介する。
論文 参考訳(メタデータ) (2023-03-21T00:15:53Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Robust Federated Learning for execution time-based device model
identification under label-flipping attack [0.0]
デバイス偽造と偽造のサイバー攻撃は、その影響と、通常、打ち上げに必要な複雑さが低いために際立っている。
行動フィンガープリントとML/DL(Machine/Deep Learning)技術の組み合わせに基づいて、デバイスモデルとタイプを特定するいくつかのソリューションが登場した。
フェデレートラーニング(FL)のような新しいアプローチは、特にシナリオ設定に悪意のあるクライアントが存在する場合、まだ十分に検討されていない。
論文 参考訳(メタデータ) (2021-11-29T10:27:14Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。