論文の概要: Privacy Preserving Vertical Federated Learning for Tree-based Models
- arxiv url: http://arxiv.org/abs/2008.06170v1
- Date: Fri, 14 Aug 2020 02:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:57:17.782660
- Title: Privacy Preserving Vertical Federated Learning for Tree-based Models
- Title(参考訳): ツリーベースモデルにおける垂直フェデレーション学習のプライバシ保護
- Authors: Yuncheng Wu, Shaofeng Cai, Xiaokui Xiao, Gang Chen, Beng Chin Ooi
- Abstract要約: フェデレーション学習は、複数の組織が互いにプライベートデータを公開することなく、共同でモデルをトレーニングすることを可能にする。
本稿では,垂直決定木学習と予測のためのプライバシー保護のための新しいソリューションであるPivotを提案する。
- 参考スコア(独自算出の注目度): 30.808567035503994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging paradigm that enables multiple
organizations to jointly train a model without revealing their private data to
each other. This paper studies {\it vertical} federated learning, which tackles
the scenarios where (i) collaborating organizations own data of the same set of
users but with disjoint features, and (ii) only one organization holds the
labels. We propose Pivot, a novel solution for privacy preserving vertical
decision tree training and prediction, ensuring that no intermediate
information is disclosed other than those the clients have agreed to release
(i.e., the final tree model and the prediction output). Pivot does not rely on
any trusted third party and provides protection against a semi-honest adversary
that may compromise $m-1$ out of $m$ clients. We further identify two privacy
leakages when the trained decision tree model is released in plaintext and
propose an enhanced protocol to mitigate them. The proposed solution can also
be extended to tree ensemble models, e.g., random forest (RF) and gradient
boosting decision tree (GBDT) by treating single decision trees as building
blocks. Theoretical and experimental analysis suggest that Pivot is efficient
for the privacy achieved.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数の組織が互いにプライベートデータを公開せずに、共同でモデルをトレーニングできる、新たなパラダイムである。
本稿では,「垂直」連帯学習について考察する。
(i)協力する組織は、同一のユーザ集合のデータを所有するが、非協力的な特徴を有する。
(ii)ラベルを持つ組織は1社のみである。
本稿では,垂直決定木学習と予測をプライバシに保存する新しいソリューションであるPivotを提案し,クライアントがリリースに合意したもの以外の中間情報が開示されないようにする(最終木モデルと予測出力)。
Pivotは信頼できるサードパーティに頼らず、$m-1$のクライアントから$m-1$を妥協する半正直な敵に対して保護を提供する。
さらに,トレーニングされた決定木モデルがプレーンテキストでリリースされた場合の2つのプライバシリークを識別し,それらを軽減するための拡張プロトコルを提案する。
提案手法は, ランダム林 (RF) や勾配増進決定木 (GBDT) などの樹木アンサンブルモデルにも拡張可能であり, 単一決定木をビルディングブロックとして扱うことができる。
理論的および実験的分析は、Pivotが達成したプライバシーに対して効率的であることを示唆している。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - A collaborative ensemble construction method for federated random forest [3.245822581039027]
本研究では,非IIDデータによる性能向上を目的とした,新しいアンサンブル構築手法を用いたランダムな森林群集構築手法を提案する。
クライアントのデータのプライバシを維持するため、各ノードに到達したクライアントのローカルデータのサンプルから特定された多数決クラスラベルに、リーフノードに格納された情報を格納する。
論文 参考訳(メタデータ) (2024-07-27T07:21:45Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - An Interpretable Client Decision Tree Aggregation process for Federated Learning [7.8973037023478785]
本稿では,フェデレート学習シナリオを対象とした解釈可能なクライアント決定木集約プロセスを提案する。
このモデルは、決定ツリーの複数の決定パスの集約に基づいており、ID3やCARTなど、さまざまな決定ツリータイプで使用することができる。
4つのデータセットで実験を行い、分析により、モデルで構築された木が局所モデルを改善し、最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-03T06:53:56Z) - Effective and Efficient Federated Tree Learning on Hybrid Data [80.31870543351918]
本稿では,ハイブリッドデータ上でのフェデレーションツリー学習を可能にする,新しいフェデレーション学習手法であるHybridTreeを提案する。
木に一貫した分割ルールが存在することを観察し、木の下層にパーティの知識を組み込むことができることを示す。
実験により,HybridTreeは計算および通信のオーバーヘッドが低い集中的な設定に匹敵する精度を達成できることを示した。
論文 参考訳(メタデータ) (2023-10-18T10:28:29Z) - Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning [8.649768969060647]
決定木は非線形学習問題に適した解釈可能なモデルである。
この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
プライバトレーは個人のヒストグラムに基づいて、小さなプライバシー予算を消費しながら、良好な分割を選択する。
論文 参考訳(メタデータ) (2023-05-24T17:56:18Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Federated Boosted Decision Trees with Differential Privacy [24.66980518231163]
本稿では,従来の決定木に対するアプローチをキャプチャし,拡張する汎用フレームワークを提案する。
高いレベルのプライバシを維持しながら、極めて高いユーティリティを実現することが可能であることを、慎重に選択することで示しています。
論文 参考訳(メタデータ) (2022-10-06T13:28:29Z) - Fed-EINI: An Efficient and Interpretable Inference Framework for
Decision Tree Ensembles in Federated Learning [11.843365055516566]
Fed-EINIは、フェデレーションツリーモデルのための効率的かつ解釈可能な推論フレームワークである。
本稿では,効率的な加算同型暗号法により決定経路を保護することを提案する。
実験によると、推論効率は平均で50%以上改善されている。
論文 参考訳(メタデータ) (2021-05-20T06:40:05Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。