論文の概要: ESMFL: Efficient and Secure Models for Federated Learning
- arxiv url: http://arxiv.org/abs/2009.01867v2
- Date: Wed, 3 Mar 2021 19:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:25:20.652759
- Title: ESMFL: Efficient and Secure Models for Federated Learning
- Title(参考訳): ESMFL:フェデレートラーニングのための効率的かつセキュアなモデル
- Authors: Sheng Lin, Chenghong Wang, Hongjia Li, Jieren Deng, Yanzhi Wang,
Caiwen Ding
- Abstract要約: 本稿では,Intel Software Guard Extensions上で運用されるフェデレーション学習分散システムのプライバシ保護手法を提案する。
我々は、スペーシングにより通勤コストを削減し、異なるモデルアーキテクチャで妥当な精度を達成することができる。
- 参考スコア(独自算出の注目度): 28.953644581089495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, Deep Neural Networks are widely applied to various domains.
However, massive data collection required for deep neural network reveals the
potential privacy issues and also consumes large mounts of communication
bandwidth. To address these problems, we propose a privacy-preserving method
for the federated learning distributed system, operated on Intel Software Guard
Extensions, a set of instructions that increase the security of application
code and data. Meanwhile, the encrypted models make the transmission overhead
larger. Hence, we reduce the commutation cost by sparsification and it can
achieve reasonable accuracy with different model architectures.
- Abstract(参考訳): 現在、ディープニューラルネットワークは様々な領域に広く適用されている。
しかし、ディープニューラルネットワークに必要な大量のデータ収集は、潜在的なプライバシーの問題を明らかにし、大量の通信帯域を消費する。
そこで本研究では,intel software guard extensions上で運用される,アプリケーションコードとデータのセキュリティを高める命令セットであるfederated learning distributed systemのためのプライバシ保護手法を提案する。
一方、暗号化されたモデルは送信オーバーヘッドを大きくします。
したがって、分散化によって通勤コストを削減し、異なるモデルアーキテクチャで妥当な精度を達成することができる。
関連論文リスト
- Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - FedML-HE: An Efficient Homomorphic-Encryption-Based Privacy-Preserving Federated Learning System [24.39699808493429]
Federated Learningは、ローカルデータではなく、ローカルモデルのアップデートを集約することによって、分散デバイス上の機械学習モデルをトレーニングする。
サーバ上の集約されたローカルモデルは、逆攻撃によって機密性の高い個人情報を明らかにする可能性があるため、プライバシー上の懸念が生じる。
我々は,HedML-HEをベースとした安全なモデルアグリゲーションを実現するための,最初の実践的フェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-03-20T02:44:35Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - An Online Ensemble Learning Model for Detecting Attacks in Wireless
Sensor Networks [0.0]
我々は、アンサンブル学習として知られる重要な機械学習の概念を適用して、インテリジェントで効率的で、かつ、高機能な侵入検知システムを開発する。
本稿では,感覚データ解析における同種・異種のオンラインアンサンブルの応用について検討する。
提案されたオンラインアンサンブルのうち、アダプティブ・ランダム・フォレスト(ARF)とHoeffding Adaptive Tree(HAT)アルゴリズムを組み合わせた異種アンサンブルと、10モデルからなる同種アンサンブルHATは、それぞれ96.84%と97.2%という高い検出率を達成した。
論文 参考訳(メタデータ) (2022-04-28T23:10:47Z) - Towards Privacy-Preserving Neural Architecture Search [7.895707607608013]
PP-NASは、セキュアなマルチパーティ計算に基づく、プライバシ保護のニューラルネットワーク検索フレームワークである。
PP-NASはNASタスクを2つの非凝固クラウドサーバにアウトソースし、混合プロトコル設計を最大限に活用する。
我々は、Softmaxの指数演算の制限を回避し、精度を向上させながら、秘密共有よりもSoftmax関数を近似する新しい方法を開発した。
論文 参考訳(メタデータ) (2022-04-22T23:44:45Z) - An Interpretable Federated Learning-based Network Intrusion Detection
Framework [9.896258523574424]
FEDFORESTは、解釈可能なグラディエントブースティング決定木(GBDT)とフェデレートラーニング(FL)フレームワークを組み合わせた、新しい学習ベースのNIDSである。
FEDFORESTは複数のクライアントで構成されており、サーバがモデルをトレーニングし、侵入を検出するために、ローカルなサイバー攻撃データ特徴を抽出する。
4つのサイバーアタックデータセットの実験は、FEDFORESTが効率的、効率的、解釈可能、拡張可能であることを示した。
論文 参考訳(メタデータ) (2022-01-10T02:12:32Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Sphynx: ReLU-Efficient Network Design for Private Inference [49.73927340643812]
そこでは、サービスプロバイダのモデルを使用して、ユーザのデータサンプルに対する推論を実行することを目標としています。
ディープネットワークのための既存のPIメソッドは、機能低下の少ない暗号的にセキュアな推論を可能にする。
本稿では,畳み込みセル設計のためのマイクロサーチ手法に基づくReLU効率の高いネットワーク設計手法であるSphynxを提案する。
論文 参考訳(メタデータ) (2021-06-17T18:11:10Z) - All at Once Network Quantization via Collaborative Knowledge Transfer [56.95849086170461]
オールオンス量子化ネットワークを効率的にトレーニングするための新しい共同知識伝達アプローチを開発しています。
具体的には、低精度の学生に知識を伝達するための高精度のエンクォータを選択するための適応的選択戦略を提案する。
知識を効果的に伝達するために,低精度の学生ネットワークのブロックを高精度の教師ネットワークのブロックにランダムに置き換える動的ブロックスワッピング法を開発した。
論文 参考訳(メタデータ) (2021-03-02T03:09:03Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。