論文の概要: Cloud-based Federated Boosting for Mobile Crowdsensing
- arxiv url: http://arxiv.org/abs/2005.05304v1
- Date: Sat, 9 May 2020 08:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 06:52:51.917021
- Title: Cloud-based Federated Boosting for Mobile Crowdsensing
- Title(参考訳): クラウドベースのモバイルクラウドセンシングのためのfederated boosting
- Authors: Zhuzhu Wang, Yilong Yang, Yang Liu, Ximeng Liu, Brij B. Gupta,
Jianfeng Ma
- Abstract要約: 我々は,モバイルクラウドセンシングにおけるプライバシー保護の極度勾配向上を実現するために,秘密共有ベースのフェデレート学習アーキテクチャであるFedXGBを提案する。
具体的には、まず秘密共有を用いて、XGBoostのセキュアな分類と回帰木(CART)を構築する。
そこで我々は,モバイルクラウドセンシングにおけるXGBoostのモデルプライバシ保護のためのセキュアな予測プロトコルを提案する。
- 参考スコア(独自算出の注目度): 29.546495197035366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of federated extreme gradient boosting to mobile crowdsensing
apps brings several benefits, in particular high performance on efficiency and
classification. However, it also brings a new challenge for data and model
privacy protection. Besides it being vulnerable to Generative Adversarial
Network (GAN) based user data reconstruction attack, there is not the existing
architecture that considers how to preserve model privacy. In this paper, we
propose a secret sharing based federated learning architecture FedXGB to
achieve the privacy-preserving extreme gradient boosting for mobile
crowdsensing. Specifically, we first build a secure classification and
regression tree (CART) of XGBoost using secret sharing. Then, we propose a
secure prediction protocol to protect the model privacy of XGBoost in mobile
crowdsensing. We conduct a comprehensive theoretical analysis and extensive
experiments to evaluate the security, effectiveness, and efficiency of FedXGB.
The results indicate that FedXGB is secure against the honest-but-curious
adversaries and attains less than 1% accuracy loss compared with the original
XGBoost model.
- Abstract(参考訳): モバイルクラウドセンシングアプリへのフェデレートされた極端な勾配の適用は、特に効率と分類における高いパフォーマンスなど、いくつかのメリットをもたらしている。
しかし、これはデータとモデルのプライバシー保護に新たな課題をもたらす。
GAN(Generative Adversarial Network)ベースのユーザデータ再構築攻撃に対する脆弱性に加えて、モデルのプライバシの保存方法を検討する既存のアーキテクチャはない。
本稿では,プライバシ保護を極端に強化したモバイルクラウドセンシングを実現するために,秘密共有型フェデレート学習アーキテクチャであるFedXGBを提案する。
具体的には、まず秘密共有を用いて、XGBoostのセキュアな分類と回帰木(CART)を構築する。
そこで我々は,モバイルクラウドセンシングにおけるXGBoostのモデルプライバシ保護のためのセキュアな予測プロトコルを提案する。
我々は、fedexgbのセキュリティ、有効性、効率を評価するために、包括的な理論的解析と広範な実験を行う。
その結果,FedXGBは正反対の敵に対して安全であり,元のXGBoostモデルと比較して1%未満の精度の損失が得られた。
関連論文リスト
- Privacy preserving layer partitioning for Deep Neural Network models [0.21470800327528838]
Trusted Execution Environments (TEEs)は、暗号化、復号化、セキュリティ、整合性チェックなどの追加レイヤによって、大幅なパフォーマンスオーバーヘッドを発生させることができる。
我々はGPUに層分割技術とオフロード計算を導入する。
我々は、訓練された条件付き生成逆数ネットワーク(c-GAN)を用いた入力再構成攻撃の防御におけるアプローチの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T02:39:48Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - SPIN: Simulated Poisoning and Inversion Network for Federated
Learning-Based 6G Vehicular Networks [9.494669823390648]
車両ネットワークは常にデータプライバシー保護の懸念に直面してきた。
この手法は、モデル逆転とモデル中毒攻撃に対して非常に脆弱である。
本研究では,データ再構成に最適化手法を応用したシミュレート中毒・逆変換ネットワーク(SPIN)を提案する。
論文 参考訳(メタデータ) (2022-11-21T10:07:13Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems [15.39058389031301]
FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-08T15:23:30Z) - Federated Boosted Decision Trees with Differential Privacy [24.66980518231163]
本稿では,従来の決定木に対するアプローチをキャプチャし,拡張する汎用フレームワークを提案する。
高いレベルのプライバシを維持しながら、極めて高いユーティリティを実現することが可能であることを、慎重に選択することで示しています。
論文 参考訳(メタデータ) (2022-10-06T13:28:29Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - FedXGBoost: Privacy-Preserving XGBoost for Federated Learning [10.304484601250948]
フェデレーション学習(Federated Learning)は、データプライバシを確保しながら、複数のパーティ間で協調的なトレーニングを可能にする、分散機械学習フレームワークである。
本稿では,FedXGBoost-SMMとFedXGBoost-LDPの2種類のフェデレートXGBoostをプライバシ保証として提案する。
論文 参考訳(メタデータ) (2021-06-20T09:17:45Z) - An Efficient Learning Framework For Federated XGBoost Using Secret
Sharing And Distributed Optimization [47.70500612425959]
XGBoostは、より優れた学習精度と効率のため、業界で最も広く使われている機械学習モデルの1つである。
ビッグデータ問題におけるデータ分離問題に対処するためには、セキュアで効率的なフェデレーションXGBoost(FedXGB)モデルをデプロイすることが重要です。
本稿では,xgboostの分割基準計算プロセスをシークレット共有設定で再構成するセキュリティ保証とともに,マルチパーティフェデレーションxgb学習フレームワークを提案する。
注目すべきは、モデルセキュリティの徹底的な分析も提供され、複数の数値結果が提案されたFedXGBの優位性を示しています。
論文 参考訳(メタデータ) (2021-05-12T15:04:18Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。