論文の概要: Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication
- arxiv url: http://arxiv.org/abs/2211.05662v1
- Date: Thu, 10 Nov 2022 15:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:48:17.525839
- Title: Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication
- Title(参考訳): IoT連続認証のためのワームアップと伝達知識に基づくフェデレーション学習アプローチ
- Authors: Mohamad Wazzeh, Hakima Ould-Slimane, Chamseddine Talhi, Azzam Mourad
and Mohsen Guizani
- Abstract要約: 本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
- 参考スコア(独自算出の注目度): 34.6454670154373
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continuous behavioural authentication methods add a unique layer of security
by allowing individuals to verify their unique identity when accessing a
device. Maintaining session authenticity is now feasible by monitoring users'
behaviour while interacting with a mobile or Internet of Things (IoT) device,
making credential theft and session hijacking ineffective. Such a technique is
made possible by integrating the power of artificial intelligence and Machine
Learning (ML). Most of the literature focuses on training machine learning for
the user by transmitting their data to an external server, subject to private
user data exposure to threats. In this paper, we propose a novel Federated
Learning (FL) approach that protects the anonymity of user data and maintains
the security of his data. We present a warmup approach that provides a
significant accuracy increase. In addition, we leverage the transfer learning
technique based on feature extraction to boost the models' performance. Our
extensive experiments based on four datasets: MNIST, FEMNIST, CIFAR-10 and
UMDAA-02-FD, show a significant increase in user authentication accuracy while
maintaining user privacy and data security.
- Abstract(参考訳): 継続的行動認証メソッドは、デバイスにアクセスするときに個人がユニークなアイデンティティを検証できるように、ユニークなセキュリティ層を追加します。
モバイルまたはモノのインターネット(IoT)デバイスと対話しながらユーザの動作を監視し、クレデンシャル盗難とセッションハイジャックを無効にすることで、セッションの信頼性を維持することが可能になった。
このような技術は、人工知能と機械学習(ML)のパワーを統合することで実現されている。
文献の多くは、脅威に対するプライベートなユーザデータ露出を前提として、データを外部サーバに送信することで、ユーザのマシンラーニングのトレーニングに重点を置いている。
本稿では,ユーザデータの匿名性を保護し,自身のデータのセキュリティを維持する新しいフェデレーション学習(fl)手法を提案する。
我々は,大幅な精度向上を実現するウォームアップ手法を提案する。
さらに,特徴抽出に基づく伝達学習技術を活用し,モデルの性能を向上させる。
mnist、femnist、cifar-10、umdaa-02-fdの4つのデータセットに基づく広範な実験では、ユーザのプライバシとデータセキュリティを維持しながら、ユーザ認証精度が大幅に向上しています。
関連論文リスト
- Private Data Leakage in Federated Human Activity Recognition for Wearable Healthcare Devices [6.422056036165425]
複数のウェアラブルデバイスにまたがるフェデレーションされたユーザ行動認識モデルにおけるプライバシー漏洩問題について検討する。
提案システムでは,N$のウェアラブルデバイスユーザとパラメータサーバで構成されるフェデレーション学習アーキテクチャを提案する。
5つの公開HARデータセットで実施された実験では、悪意のあるサーバベースのメンバシップ推論の精度が92%であることが示されている。
論文 参考訳(メタデータ) (2024-05-14T07:43:22Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - mPSAuth: Privacy-Preserving and Scalable Authentication for Mobile Web
Applications [0.0]
mPSAuthは、ユーザの振る舞いを反映したさまざまなデータソースを継続的に追跡し、現在のユーザが正当である可能性を推定するアプローチである。
我々はmPSAuthが暗号化と通信のオーバーヘッドを低く抑えながら高い精度を提供できることを示した。
論文 参考訳(メタデータ) (2022-10-07T12:49:34Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - HBFL: A Hierarchical Blockchain-based Federated Learning Framework for a
Collaborative IoT Intrusion Detection [0.0]
セキュアでプライバシ保護されたコラボレーティブなIoT侵入検出を実現するために,階層的なブロックチェーンベースのフェデレーション学習フレームワークを提案する。
MLベースの侵入検出フレームワークの提案は、学習プロセスと組織データのプライバシを確保するために、階層的なフェデレーション付き学習アーキテクチャに従っている。
その結果は、データプライバシを保持しながら、広範囲の悪意あるアクティビティを検出できる、セキュアに設計されたMLベースの侵入検知システムである。
論文 参考訳(メタデータ) (2022-04-08T19:06:16Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。