論文の概要: Measuring and Controlling Split Layer Privacy Leakage Using Fisher
Information
- arxiv url: http://arxiv.org/abs/2209.10119v1
- Date: Wed, 21 Sep 2022 04:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:18:51.749286
- Title: Measuring and Controlling Split Layer Privacy Leakage Using Fisher
Information
- Title(参考訳): フィッシャー情報を用いた分割層プライバシー漏洩の測定と制御
- Authors: Kiwan Maeng, Chuan Guo, Sanjay Kariyappa, Edward Suh
- Abstract要約: 本稿では,情報漏洩を計測・制御するためのプライバシー指標としてフィッシャー情報を用いることを提案する。
分割層を通してどれだけの個人情報が流出しているかを、フィッシャー情報が直感的に理解できることを示す。
次に,プライバシ強化技術であるReFILを提案し,分割層におけるフィッシャー情報漏洩をユーザに望まれるレベルに強制し,高いプライバシを実現する。
- 参考スコア(独自算出の注目度): 11.418728705338726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split learning and inference propose to run training/inference of a large
model that is split across client devices and the cloud. However, such a model
splitting imposes privacy concerns, because the activation flowing through the
split layer may leak information about the clients' private input data. There
is currently no good way to quantify how much private information is being
leaked through the split layer, nor a good way to improve privacy up to the
desired level.
In this work, we propose to use Fisher information as a privacy metric to
measure and control the information leakage. We show that Fisher information
can provide an intuitive understanding of how much private information is
leaking through the split layer, in the form of an error bound for an unbiased
reconstruction attacker. We then propose a privacy-enhancing technique, ReFIL,
that can enforce a user-desired level of Fisher information leakage at the
split layer to achieve high privacy, while maintaining reasonable utility.
- Abstract(参考訳): 分割学習と推論は、クライアントデバイスとクラウドにまたがる大きなモデルのトレーニング/推論を実行することを提案する。
しかし、分割層を流れるアクティベーションがクライアントのプライベート入力データに関する情報を漏洩させる可能性があるため、そのような分割モデルではプライバシー上の懸念が生じる。
現在、スプリット層を通じてどれだけのプライベート情報が漏洩しているかを定量化する良い方法はなく、望ましいレベルまでプライバシーを改善する良い方法もない。
本研究では,情報漏洩を計測・制御するためのプライバシー指標としてフィッシャー情報を用いることを提案する。
我々は,フィッシャー情報が分割層を通してどの程度のプライベート情報が漏洩しているかを,非バイアスの復元攻撃者に対する誤りの形で直感的に理解できることを示す。
次に,分割層において利用者が希望するレベルの情報漏洩を強制し,高いプライバシを実現するためのプライバシー向上手法であるrefilを提案する。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - How Much Privacy Does Federated Learning with Secure Aggregation
Guarantee? [22.7443077369789]
フェデレートラーニング(FL)は、複数のユーザに保存されたデータに対して、プライバシ保護機械学習を可能にすることへの関心が高まっている。
データはユーザのデバイスを離れることはないが、トレーニングデータに対する重要な計算がトレーニングされたローカルモデル形式で共有されるため、プライバシは保証されない。
セキュアアグリゲーション(SA)は、FLのプライバシーを守るためのフレームワークとして開発されている。
論文 参考訳(メタデータ) (2022-08-03T18:44:17Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - Generating private data with user customization [9.415164800448853]
モバイルデバイスは大量のデータを生成、保存し、機械学習モデルを強化することができる。
しかし、このデータには、データのリリースを防止するデータ所有者特有のプライベート情報が含まれている可能性がある。
有用な情報を保持しつつ、ユーザ固有のプライベート情報とデータとの相関を小さくしたい。
論文 参考訳(メタデータ) (2020-12-02T19:13:58Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。