論文の概要: SoK: Privacy-Preserving Collaborative Tree-based Model Learning
- arxiv url: http://arxiv.org/abs/2103.08987v1
- Date: Tue, 16 Mar 2021 11:24:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:19:30.631270
- Title: SoK: Privacy-Preserving Collaborative Tree-based Model Learning
- Title(参考訳): SoK:プライバシ保護型協調木モデル学習
- Authors: Sylvain Chatel, Apostolos Pyrgelis, Juan Ramon Troncoso-Pastoriza,
Jean-Pierre Hubaux
- Abstract要約: ツリーベースモデルの分散およびプライバシー保護トレーニングに関する文献を調査します。
学習アルゴリズム,協調モデル,保護機構,脅威モデルという4つの軸に基づいて,知識を体系化する。
分散木ベースモデル学習において発生する情報漏洩を分析するフレームワークを初めて提供する。
- 参考スコア(独自算出の注目度): 5.759774832460351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tree-based models are among the most efficient machine learning techniques
for data mining nowadays due to their accuracy, interpretability, and
simplicity. The recent orthogonal needs for more data and privacy protection
call for collaborative privacy-preserving solutions. In this work, we survey
the literature on distributed and privacy-preserving training of tree-based
models and we systematize its knowledge based on four axes: the learning
algorithm, the collaborative model, the protection mechanism, and the threat
model. We use this to identify the strengths and limitations of these works and
provide for the first time a framework analyzing the information leakage
occurring in distributed tree-based model learning.
- Abstract(参考訳): ツリーベースのモデルは、正確性、解釈性、単純さのため、データマイニングの最も効率的な機械学習技術の一つである。
最近の直交的なニーズは、協力的なプライバシ保護ソリューションのためのデータとプライバシ保護の要求を増やしている。
本研究では,木ベースモデルの分散およびプライバシ保全トレーニングに関する文献を調査し,その知識を学習アルゴリズム,協調モデル,保護機構,脅威モデルという4つの軸に基づいて体系化する。
これを用いてこれらの作業の長所と短所を特定し、分散ツリーベースモデル学習で発生した情報漏洩を分析するフレームワークを初めて提供する。
関連論文リスト
- Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition [3.351714665243138]
エンド・ツー・エンド・トレーニング・フレームワークを用いたプライバシー保護表現学習手法を開発した。
我々はこのモデルを最先端の顔認識システムに適用する。
論文 参考訳(メタデータ) (2024-01-26T11:32:53Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Privacy-preserving machine learning with tensor networks [50.591267188664666]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - Privacy-preserving Generative Framework Against Membership Inference
Attacks [10.791983671720882]
我々は、メンバーシップ推論攻撃に対するプライバシー保護のための生成フレームワークを設計する。
まず、VAEモデルを通してソースデータを潜時空間にマッピングして潜時符号を取得し、次に潜時符号上でメートル法プライバシーを満たすノイズ処理を行い、最終的にVAEモデルを用いて合成データを再構成する。
実験により、新たに生成した合成データを用いて学習した機械学習モデルは、メンバーシップ推論攻撃に効果的に抵抗でき、高いユーティリティを維持できることを示した。
論文 参考訳(メタデータ) (2022-02-11T06:13:30Z) - Bounding Information Leakage in Machine Learning [26.64770573405079]
本稿では,情報漏洩の基本的な境界について検討する。
最悪の会員推論攻撃の成功率を特定し、拘束します。
感度の高い属性とモデルパラメータの間の相互情報の境界を導出する。
論文 参考訳(メタデータ) (2021-05-09T08:49:14Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - GRAFFL: Gradient-free Federated Learning of a Bayesian Generative Model [8.87104231451079]
本稿では、GRAFFLと呼ばれる、最初の勾配のない連邦学習フレームワークを提案する。
参加する各機関から得られた暗黙の情報を用いて、パラメータの後方分布を学習する。
本稿では,GRAFFLに基づくベイズ混合モデルを提案する。
論文 参考訳(メタデータ) (2020-08-29T07:19:44Z) - E-Tree Learning: A Novel Decentralized Model Learning Framework for Edge
AI [18.53971408174349]
エッジ強化AI、すなわちエッジAIは、データソースに近いネットワークエッジでのAIモデル学習とデプロイメントをサポートするために提案されている。
本稿では,エッジデバイスによく設計された木構造を利用した分散モデル学習手法,すなわちE-Treeを提案する。
論文 参考訳(メタデータ) (2020-08-04T13:59:29Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。