論文の概要: Robust Federated Learning for execution time-based device model
identification under label-flipping attack
- arxiv url: http://arxiv.org/abs/2111.14434v1
- Date: Mon, 29 Nov 2021 10:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 01:20:33.576238
- Title: Robust Federated Learning for execution time-based device model
identification under label-flipping attack
- Title(参考訳): ラベルフリッピング攻撃時の実行時間に基づくデバイスモデル同定のためのロバストフェデレーション学習
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an, Jos\'e
Rafael Buend\'ia Rubio, G\'er\^ome Bovet, Gregorio Mart\'inez P\'erez
- Abstract要約: デバイス偽造と偽造のサイバー攻撃は、その影響と、通常、打ち上げに必要な複雑さが低いために際立っている。
行動フィンガープリントとML/DL(Machine/Deep Learning)技術の組み合わせに基づいて、デバイスモデルとタイプを特定するいくつかのソリューションが登場した。
フェデレートラーニング(FL)のような新しいアプローチは、特にシナリオ設定に悪意のあるクライアントが存在する場合、まだ十分に検討されていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The computing device deployment explosion experienced in recent years,
motivated by the advances of technologies such as Internet-of-Things (IoT) and
5G, has led to a global scenario with increasing cybersecurity risks and
threats. Among them, device spoofing and impersonation cyberattacks stand out
due to their impact and, usually, low complexity required to be launched. To
solve this issue, several solutions have emerged to identify device models and
types based on the combination of behavioral fingerprinting and Machine/Deep
Learning (ML/DL) techniques. However, these solutions are not appropriated for
scenarios where data privacy and protection is a must, as they require data
centralization for processing. In this context, newer approaches such as
Federated Learning (FL) have not been fully explored yet, especially when
malicious clients are present in the scenario setup. The present work analyzes
and compares the device model identification performance of a centralized DL
model with an FL one while using execution time-based events. For experimental
purposes, a dataset containing execution-time features of 55 Raspberry Pis
belonging to four different models has been collected and published. Using this
dataset, the proposed solution achieved 0.9999 accuracy in both setups,
centralized and federated, showing no performance decrease while preserving
data privacy. Later, the impact of a label-flipping attack during the federated
model training is evaluated, using several aggregation mechanisms as
countermeasure. Zeno and coordinate-wise median aggregation show the best
performance, although their performance greatly degrades when the percentage of
fully malicious clients (all training samples poisoned) grows over 50%.
- Abstract(参考訳): 近年、IoT(Internet-of-Things)や5G(5G)といった技術の進歩に動機づけられたコンピューティングデバイスデプロイメントの爆発は、サイバーセキュリティのリスクと脅威の増加という世界的なシナリオにつながった。
その中でも、デバイススプーフィングと偽装サイバー攻撃は、その影響と、通常、打ち上げに必要な複雑さの低下のために際立っている。
この問題を解決するために、行動フィンガープリントとML/DL(Machine/Deep Learning)技術の組み合わせに基づいて、デバイスモデルとタイプを特定するいくつかのソリューションが登場した。
しかし、これらのソリューションは処理にデータ集中化を必要とするため、データのプライバシと保護が必須となるシナリオには適していない。
この文脈では、federated learning(fl)のような新しいアプローチは、特にシナリオ設定に悪意のあるクライアントが存在する場合、まだ完全には検討されていない。
本稿では,集中型DLモデルのデバイスモデル識別性能を,実行時間に基づくイベントを用いてFLモデルと比較する。
実験的な目的で、4つの異なるモデルに属する55のraspberry piの実行時間機能を含むデータセットが収集され、公開された。
このデータセットを使用して、提案したソリューションは、中央集権化とフェデレーションの両方のセットアップにおいて0.9999の精度を達成した。
その後,複数のアグリゲーション機構を対策として,フェデレーションモデルトレーニングにおけるラベルフリッピング攻撃の影響を評価する。
Zenoと座標中心的なアグリゲーションは最高のパフォーマンスを示しているが、そのパフォーマンスは、完全に悪意のあるクライアント(すべてのトレーニングサンプルが毒を盛った)の割合が50%を超えると大幅に低下する。
関連論文リスト
- Efficient Federated Intrusion Detection in 5G ecosystem using optimized BERT-based model [0.7100520098029439]
5Gは高度なサービスを提供し、IoT(Internet of Things)内のインテリジェントトランスポート、コネクテッドヘルスケア、スマートシティなどのアプリケーションをサポートする。
これらの進歩は、ますます高度なサイバー攻撃を伴う、重大なセキュリティ上の課題をもたらす。
本稿では,連合学習と大規模言語モデル(LLM)を用いた頑健な侵入検知システム(IDS)を提案する。
論文 参考訳(メタデータ) (2024-09-28T15:56:28Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Adversarial attacks and defenses on ML- and hardware-based IoT device
fingerprinting and identification [0.0]
本研究では,個々のデバイス識別のためのハードウェア性能挙動に基づくLSTM-CNNアーキテクチャを提案する。
これまでは、45台のRaspberry Piデバイスから収集されたハードウェアパフォーマンスデータセットを使用して、提案されたアーキテクチャと比較されてきた。
回避攻撃に対するモデルレジリエンスを改善するために 敵の訓練と モデル蒸留防衛技術が選択される。
論文 参考訳(メタデータ) (2022-12-30T13:11:35Z) - Securing Federated Learning against Overwhelming Collusive Attackers [7.587927338603662]
局所モデル間の相関を利用して,最小スパンニング木とk-Densestグラフに基づく2つのグラフ理論アルゴリズムを提案する。
我々のFLモデルは、攻撃者の影響を最大70%まで無効にすることができる。
我々は、精度、攻撃成功率、早期検出ラウンドを用いて、既存のアルゴリズムよりもアルゴリズムの優位性を確立する。
論文 参考訳(メタデータ) (2022-09-28T13:41:04Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。