論文の概要: Privacy Preserving Vertical Federated Learning for Tree-based Models
- arxiv url: http://arxiv.org/abs/2008.06170v1
- Date: Fri, 14 Aug 2020 02:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:57:17.782660
- Title: Privacy Preserving Vertical Federated Learning for Tree-based Models
- Title(参考訳): ツリーベースモデルにおける垂直フェデレーション学習のプライバシ保護
- Authors: Yuncheng Wu, Shaofeng Cai, Xiaokui Xiao, Gang Chen, Beng Chin Ooi
- Abstract要約: フェデレーション学習は、複数の組織が互いにプライベートデータを公開することなく、共同でモデルをトレーニングすることを可能にする。
本稿では,垂直決定木学習と予測のためのプライバシー保護のための新しいソリューションであるPivotを提案する。
- 参考スコア(独自算出の注目度): 30.808567035503994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging paradigm that enables multiple
organizations to jointly train a model without revealing their private data to
each other. This paper studies {\it vertical} federated learning, which tackles
the scenarios where (i) collaborating organizations own data of the same set of
users but with disjoint features, and (ii) only one organization holds the
labels. We propose Pivot, a novel solution for privacy preserving vertical
decision tree training and prediction, ensuring that no intermediate
information is disclosed other than those the clients have agreed to release
(i.e., the final tree model and the prediction output). Pivot does not rely on
any trusted third party and provides protection against a semi-honest adversary
that may compromise $m-1$ out of $m$ clients. We further identify two privacy
leakages when the trained decision tree model is released in plaintext and
propose an enhanced protocol to mitigate them. The proposed solution can also
be extended to tree ensemble models, e.g., random forest (RF) and gradient
boosting decision tree (GBDT) by treating single decision trees as building
blocks. Theoretical and experimental analysis suggest that Pivot is efficient
for the privacy achieved.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数の組織が互いにプライベートデータを公開せずに、共同でモデルをトレーニングできる、新たなパラダイムである。
本稿では,「垂直」連帯学習について考察する。
(i)協力する組織は、同一のユーザ集合のデータを所有するが、非協力的な特徴を有する。
(ii)ラベルを持つ組織は1社のみである。
本稿では,垂直決定木学習と予測をプライバシに保存する新しいソリューションであるPivotを提案し,クライアントがリリースに合意したもの以外の中間情報が開示されないようにする(最終木モデルと予測出力)。
Pivotは信頼できるサードパーティに頼らず、$m-1$のクライアントから$m-1$を妥協する半正直な敵に対して保護を提供する。
さらに,トレーニングされた決定木モデルがプレーンテキストでリリースされた場合の2つのプライバシリークを識別し,それらを軽減するための拡張プロトコルを提案する。
提案手法は, ランダム林 (RF) や勾配増進決定木 (GBDT) などの樹木アンサンブルモデルにも拡張可能であり, 単一決定木をビルディングブロックとして扱うことができる。
理論的および実験的分析は、Pivotが達成したプライバシーに対して効率的であることを示唆している。
関連論文リスト
- Effective and Efficient Federated Tree Learning on Hybrid Data [83.77804863458832]
本稿では,ハイブリッドデータ上でのフェデレーションツリー学習を可能にする,新しいフェデレーション学習手法であるHybridTreeを提案する。
木に一貫した分割ルールが存在することを観察し、木の下層にパーティの知識を組み込むことができることを示す。
実験により,HybridTreeは計算および通信のオーバーヘッドが低い集中的な設定に匹敵する精度を達成できることを示した。
論文 参考訳(メタデータ) (2023-10-18T10:28:29Z) - Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning [8.649768969060647]
決定木は非線形学習問題に適した解釈可能なモデルである。
この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
プライバトレーは個人のヒストグラムに基づいて、小さなプライバシー予算を消費しながら、良好な分割を選択する。
論文 参考訳(メタデータ) (2023-05-24T17:56:18Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Federated Boosted Decision Trees with Differential Privacy [24.66980518231163]
本稿では,従来の決定木に対するアプローチをキャプチャし,拡張する汎用フレームワークを提案する。
高いレベルのプライバシを維持しながら、極めて高いユーティリティを実現することが可能であることを、慎重に選択することで示しています。
論文 参考訳(メタデータ) (2022-10-06T13:28:29Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Clue Me In: Semi-Supervised FGVC with Out-of-Distribution Data [44.90231337626545]
半教師付き視覚分類のための配布外データ処理に特化した新しい設計を提案する。
実験の結果, (i) 提案手法は分布外データに対して良好なロバスト性を示し, (ii) 先行技術を用いて, 性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-12-06T07:22:10Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Fed-EINI: An Efficient and Interpretable Inference Framework for
Decision Tree Ensembles in Federated Learning [11.843365055516566]
Fed-EINIは、フェデレーションツリーモデルのための効率的かつ解釈可能な推論フレームワークである。
本稿では,効率的な加算同型暗号法により決定経路を保護することを提案する。
実験によると、推論効率は平均で50%以上改善されている。
論文 参考訳(メタデータ) (2021-05-20T06:40:05Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Compression Boosts Differentially Private Federated Learning [0.7742297876120562]
フェデレートされた学習により、分散エンティティは、自身のデータを共有することなく、共通のモデルを協調的にトレーニングできる。
悪意のあるエンティティが、捕獲された勾配から参加者のトレーニングデータに関するプライベート情報を学ぶことができるような、さまざまな推論や再構築攻撃に対して脆弱なままである。
本稿では,2つのデータセットを用いて,従来の非私的フェデレート学習方式と比較して,通信コストを最大95%削減できることを示す。
論文 参考訳(メタデータ) (2020-11-10T13:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。