論文の概要: Label Leakage and Protection in Two-party Split Learning
- arxiv url: http://arxiv.org/abs/2102.08504v1
- Date: Wed, 17 Feb 2021 00:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:29:03.051626
- Title: Label Leakage and Protection in Two-party Split Learning
- Title(参考訳): 二者分割学習におけるラベル漏洩と保護
- Authors: Oscar Li and Jiankai Sun and Xin Yang and Weihao Gao and Hongyi Zhang
and Junyuan Xie and Virginia Smith and Chong Wang
- Abstract要約: 本稿では,不均衡な二項分類設定でその答えを検討する。
まず,当事者間のコミュニケーション勾配のノルムを用いた単純な手法であるノームアタックが,参加者の接地ラベルをほとんど明らかにできることを示す。
そこで我々は,ラベル検出の最悪のエラーを直接最大化する原理的手法を考案した。
- 参考スコア(独自算出の注目度): 31.55902526103684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In vertical federated learning, two-party split learning has become an
important topic and has found many applications in real business scenarios.
However, how to prevent the participants' ground-truth labels from possible
leakage is not well studied. In this paper, we consider answering this question
in an imbalanced binary classification setting, a common case in online
business applications. We first show that, norm attack, a simple method that
uses the norm of the communicated gradients between the parties, can largely
reveal the ground-truth labels from the participants. We then discuss several
protection techniques to mitigate this issue. Among them, we have designed a
principled approach that directly maximizes the worst-case error of label
detection. This is proved to be more effective in countering norm attack and
beyond. We experimentally demonstrate the competitiveness of our proposed
method compared to several other baselines.
- Abstract(参考訳): 垂直連合学習では、二者分割学習が重要なトピックとなり、実際のビジネスシナリオで多くのアプリケーションを見つけました。
しかし、参加者の接地ラベルの漏れを防ぐ方法はよく研究されていない。
本稿では,オンラインビジネスアプリケーションにおける共通事例である,不均衡なバイナリ分類設定において,この質問に答えることを検討する。
まず,当事者間のコミュニケーション勾配のノルムを用いた単純な手法であるノームアタックが,参加者の接地ラベルをほとんど明らかにできることを示す。
次に,この問題を軽減するための保護手法について検討する。
そこで我々は,ラベル検出の最悪のエラーを直接最大化する原理的手法を考案した。
これは、通常の攻撃などに対してより効果的であることが証明されている。
提案手法の競合性は,他の複数のベースラインと比較して実験的に検証した。
関連論文リスト
- Partial Label Learning with a Partner [55.74236846238119]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
提案手法は, 未ラベルサンプルの同定と修正を支援するため, 新たなパートナーを導入し, 相互監督のパラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - The Selected-completely-at-random Complementary Label is a Practical
Weak Supervision for Multi-class Classification [71.42360409393201]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫した手法を提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Partial-Label Regression [54.74984751371617]
部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
論文 参考訳(メタデータ) (2023-06-15T09:02:24Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - Making Split Learning Resilient to Label Leakage by Potential Energy
Loss [20.021666719425163]
トレーニングされた分割モデルによって引き起こされるプライバシー漏洩問題、すなわち、攻撃者はいくつかのラベル付きサンプルを使用してボトムモデルを微調整することができる。
このようなプライバシリークを防止するため,ボトムモデルの出力をより複雑にするための潜在的なエネルギー損失を提案する。
実験結果から,本手法は攻撃者の微調整精度を著しく低下させ,スプリットモデルのラベルリークに対する耐性を高めた。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Clustering Label Inference Attack against Practical Split Learning [4.01617268242475]
分割学習は、プライバシを保存する分散学習のための有望なパラダイムだと考えられている。
本稿では,実践的な分割学習のためのパッシブクラスタリングラベル推論攻撃を提案する。
ラベル保護に差分プライバシーと勾配圧縮を採用する場合でも、敵は正確な予測を達成できる。
論文 参考訳(メタデータ) (2022-03-10T08:02:03Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - Long-tail learning via logit adjustment [67.47668112425225]
現実世界の分類問題は通常、不均衡または長い尾のラベルの分布を示す。
これは、そのようなラベルを一般化する上での課題であり、また、支配的なラベルに偏った「学習」をもたらさせる。
これらの課題に対処するために、標準的なソフトマックスクロスエントロピートレーニングの2つの簡単な修正を提案する。
論文 参考訳(メタデータ) (2020-07-14T19:27:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。