論文の概要: FedXGBoost: Privacy-Preserving XGBoost for Federated Learning
- arxiv url: http://arxiv.org/abs/2106.10662v2
- Date: Tue, 22 Jun 2021 14:50:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-23 11:17:12.895546
- Title: FedXGBoost: Privacy-Preserving XGBoost for Federated Learning
- Title(参考訳): FedXGBoost: フェデレートラーニングのためのプライバシ保護XGBoost
- Authors: Nhan Khanh Le and Yang Liu and Quang Minh Nguyen and Qingchen Liu and
Fangzhou Liu and Quanwei Cai and Sandra Hirche
- Abstract要約: フェデレーション学習(Federated Learning)は、データプライバシを確保しながら、複数のパーティ間で協調的なトレーニングを可能にする、分散機械学習フレームワークである。
本稿では,FedXGBoost-SMMとFedXGBoost-LDPの2種類のフェデレートXGBoostをプライバシ保証として提案する。
- 参考スコア(独自算出の注目度): 10.304484601250948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is the distributed machine learning framework that enables
collaborative training across multiple parties while ensuring data privacy.
Practical adaptation of XGBoost, the state-of-the-art tree boosting framework,
to federated learning remains limited due to high cost incurred by conventional
privacy-preserving methods. To address the problem, we propose two variants of
federated XGBoost with privacy guarantee: FedXGBoost-SMM and FedXGBoost-LDP.
Our first protocol FedXGBoost-SMM deploys enhanced secure matrix multiplication
method to preserve privacy with lossless accuracy and lower overhead than
encryption-based techniques. Developed independently, the second protocol
FedXGBoost-LDP is heuristically designed with noise perturbation for local
differential privacy, and empirically evaluated on real-world and synthetic
datasets.
- Abstract(参考訳): フェデレーション学習(Federated Learning)は、データプライバシを確保しながら、複数のパーティ間で協調的なトレーニングを可能にする分散機械学習フレームワークである。
従来のプライバシ保存手法がもたらす高コストのため,最先端のツリー強化フレームワークであるXGBoostのフェデレーション学習への実践的適応は依然として限られている。
本稿では,FedXGBoost-SMMとFedXGBoost-LDPの2種類のフェデレートXGBoostをプライバシ保証として提案する。
弊社の最初のプロトコルであるFedXGBoost-SMMは、セキュアな行列乗法を導入し、プライバシーを無害な精度で保存し、暗号化技術よりもオーバーヘッドを低くする。
独立に開発された第2のプロトコルfedexgboost-ldpは、局所微分プライバシーのためのノイズ摂動でヒューリスティックに設計され、実世界および合成データセットで実証的に評価される。
関連論文リスト
- Bilateral Differentially Private Vertical Federated Boosted Decision Trees [10.952674399412405]
フェデレーション学習(Federated Learning)は、データプライバシを確保しながら、複数のパーティ間で協調的なトレーニングを可能にする、分散機械学習パラダイムである。
本稿では,二元差分プライバシー保証を備えた垂直連合型XGBoostの変種を提案する: MaskedXGBoost。
有効性と効率の両面でのアルゴリズムの優位性を複数のデータセットで検証した。
論文 参考訳(メタデータ) (2025-04-30T15:37:44Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - Secure Federated XGBoost with CUDA-accelerated Homomorphic Encryption via NVIDIA FLARE [6.053716038605071]
フェデレートラーニング(FL)は、分散データセット間の協調モデルトレーニングを可能にする。
NVIDIA FLAREのFederated XGBoostは、人気のあるXGBoostアルゴリズムを、垂直および水平の両方のフェデレーション設定に拡張する。
最初の実施は、中間統計の共有に関する相互信頼を前提としていた。
これらのリスクを軽減するための効率的なソリューションとして,セキュアフェデレーションXGBoostを紹介します。
論文 参考訳(メタデータ) (2025-04-04T20:08:24Z) - Privacy-Preserving Federated Learning with Differentially Private Hyperdimensional Computing [5.667290129954206]
プライバシー保護型フェデレーションハイパー次元コンピューティング(FedHDPrivacy)を提案する。
FedHDPrivacyは、学習ラウンド全体で累積ノイズを監視し、プライバシー制約を満たすために必要な追加ノイズのみを追加する。
FedHDPrivacyは、製造プロセスの監視のための現実世界のアプリケーションであり、標準的なFLフレームワークを超越しながら高性能を維持している。
論文 参考訳(メタデータ) (2024-11-02T05:00:44Z) - Federated Instruction Tuning of LLMs with Domain Coverage Augmentation [87.49293964617128]
Federated Domain-specific Instruction Tuning (FedDIT)は、限られたクロスクライアントなプライベートデータと、命令拡張のさまざまな戦略を利用する。
我々は,欲求のあるクライアントセンターの選択と検索に基づく拡張を通じて,ドメインカバレッジを最適化するFedDCAを提案する。
クライアント側の計算効率とシステムのスケーラビリティのために、FedDCAの変種であるFedDCA$*$はサーバ側の特徴アライメントを備えた異種エンコーダを利用する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - Federated Boosted Decision Trees with Differential Privacy [24.66980518231163]
本稿では,従来の決定木に対するアプローチをキャプチャし,拡張する汎用フレームワークを提案する。
高いレベルのプライバシを維持しながら、極めて高いユーティリティを実現することが可能であることを、慎重に選択することで示しています。
論文 参考訳(メタデータ) (2022-10-06T13:28:29Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - An Efficient Learning Framework For Federated XGBoost Using Secret
Sharing And Distributed Optimization [47.70500612425959]
XGBoostは、より優れた学習精度と効率のため、業界で最も広く使われている機械学習モデルの1つである。
ビッグデータ問題におけるデータ分離問題に対処するためには、セキュアで効率的なフェデレーションXGBoost(FedXGB)モデルをデプロイすることが重要です。
本稿では,xgboostの分割基準計算プロセスをシークレット共有設定で再構成するセキュリティ保証とともに,マルチパーティフェデレーションxgb学習フレームワークを提案する。
注目すべきは、モデルセキュリティの徹底的な分析も提供され、複数の数値結果が提案されたFedXGBの優位性を示しています。
論文 参考訳(メタデータ) (2021-05-12T15:04:18Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Large-Scale Secure XGB for Vertical Federated Learning [15.864654742542246]
本稿では,縦型学習環境下での大規模セキュアなXGBの構築を目的とする。
我々は、トレーニング中に中間情報が漏洩することを避けるために、セキュアなマルチパーティ計算技術を採用している。
セキュアな置換プロトコルを提案することで、トレーニング効率を改善し、フレームワークを大規模なデータセットにスケールすることが可能になります。
論文 参考訳(メタデータ) (2020-05-18T06:31:10Z) - Cloud-based Federated Boosting for Mobile Crowdsensing [29.546495197035366]
我々は,モバイルクラウドセンシングにおけるプライバシー保護の極度勾配向上を実現するために,秘密共有ベースのフェデレート学習アーキテクチャであるFedXGBを提案する。
具体的には、まず秘密共有を用いて、XGBoostのセキュアな分類と回帰木(CART)を構築する。
そこで我々は,モバイルクラウドセンシングにおけるXGBoostのモデルプライバシ保護のためのセキュアな予測プロトコルを提案する。
論文 参考訳(メタデータ) (2020-05-09T08:49:01Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。