論文の概要: Residue-based Label Protection Mechanisms in Vertical Logistic
Regression
- arxiv url: http://arxiv.org/abs/2205.04166v1
- Date: Mon, 9 May 2022 10:21:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 16:13:59.076455
- Title: Residue-based Label Protection Mechanisms in Vertical Logistic
Regression
- Title(参考訳): 垂直ロジスティック回帰における残留型ラベル保護機構
- Authors: Juntao Tan, Lan Zhang, Yang Liu, Anran Li, Ye Wu
- Abstract要約: フェデレートラーニング(FL)は、分散参加者が互いにプライベートデータを公開することなく、グローバルモデルを共同で学習することを可能にする。
近年,被験者が同じサンプルを保有する垂直FLが注目されている。
本稿ではまず,垂直ロジスティック回帰モデルの潜在的なプライバシー漏洩を調査するためのラベル推論攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 12.758454946846282
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) enables distributed participants to collaboratively
learn a global model without revealing their private data to each other.
Recently, vertical FL, where the participants hold the same set of samples but
with different features, has received increased attention. This paper first
presents one label inference attack method to investigate the potential privacy
leakages of the vertical logistic regression model. Specifically, we discover
that the attacker can utilize the residue variables, which are calculated by
solving the system of linear equations constructed by local dataset and the
received decrypted gradients, to infer the privately owned labels. To deal with
this, we then propose three protection mechanisms, e.g., additive noise
mechanism, multiplicative noise mechanism, and hybrid mechanism which leverages
local differential privacy and homomorphic encryption techniques, to prevent
the attack and improve the robustness of the vertical logistic regression.
model. Experimental results show that both the additive noise mechanism and the
multiplicative noise mechanism can achieve efficient label protection with only
a slight drop in model testing accuracy, furthermore, the hybrid mechanism can
achieve label protection without any testing accuracy degradation, which
demonstrates the effectiveness and efficiency of our protection techniques
- Abstract(参考訳): フェデレートラーニング(FL)は、分散参加者が互いにプライベートデータを公開することなく、グローバルモデルを共同で学習することを可能にする。
近年, 被験者が同一のサンプル群を持ち, 異なる特徴を持つ垂直flが注目されている。
本稿ではまず,垂直ロジスティック回帰モデルの潜在的なプライバシー漏洩を調査するためのラベル推論手法を提案する。
具体的には,ローカルデータセットと受信した復号勾配によって構築された線形方程式の系を解いて計算した剰余変数を用いて,プライベートに所有するラベルを推定できることを示す。
これに対処するため,我々は,局所微分プライバシーと準同型暗号技術を活用した付加的ノイズ機構,乗算的ノイズ機構,ハイブリッド機構の3つの保護機構を提案し,攻撃を防止し,垂直ロジスティック回帰のロバスト性を向上させる。
モデル。
実験結果から, 加法雑音機構と乗算雑音機構の両方が, モデル検査精度をわずかに低下させることなく, 効率的なラベル保護を達成できること, さらに, 試験精度を劣化させることなくラベル保護を達成できること, 保護技術の有効性と効率性を示す。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Regression with Label Differential Privacy [64.21020761920322]
与えられた回帰損失関数の下で最適なラベルDPランダム化機構を導出する。
我々は、最適メカニズムが「ビンのランダム化応答」の形をとることを証明した。
論文 参考訳(メタデータ) (2022-12-12T17:41:32Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Feature Inference Attack on Model Predictions in Vertical Federated
Learning [26.7517556631796]
フェデレーテッド・ラーニング(FL)は、複数の組織が互いにプライベートなデータを公開せずに協力し合うための新興パラダイムである。
本稿では,縦型FLのモデル予測段階における潜在的なプライバシー漏洩について,いくつかの特徴推論攻撃手法を提案する。
論文 参考訳(メタデータ) (2020-10-20T09:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。