論文の概要: Blinder: End-to-end Privacy Protection in Sensing Systems via
Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2209.12046v3
- Date: Fri, 6 Oct 2023 17:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 16:21:28.583587
- Title: Blinder: End-to-end Privacy Protection in Sensing Systems via
Personalized Federated Learning
- Title(参考訳): Blinder:個人化フェデレーション学習によるセンシングシステムにおけるエンドツーエンドのプライバシ保護
- Authors: Xin Yang, Omid Ardakanian
- Abstract要約: 本稿では、分散化されたデータに基づいて訓練されたセンサデータ匿名化モデルを提案し、データユーティリティとプライバシの間に望ましいトレードオフを打つ。
我々の匿名化モデルはBlinderと呼ばれ、変分オートエンコーダと1つまたは複数の識別器ネットワークを逆行的に訓練した。
- 参考スコア(独自算出の注目度): 5.803565897482636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a sensor data anonymization model that is trained on
decentralized data and strikes a desirable trade-off between data utility and
privacy, even in heterogeneous settings where the sensor data have different
underlying distributions. Our anonymization model, dubbed Blinder, is based on
a variational autoencoder and one or multiple discriminator networks trained in
an adversarial fashion. We use the model-agnostic meta-learning framework to
adapt the anonymization model trained via federated learning to each user's
data distribution. We evaluate Blinder under different settings and show that
it provides end-to-end privacy protection on two IMU datasets at the cost of
increasing privacy loss by up to 4.00% and decreasing data utility by up to
4.24%, compared to the state-of-the-art anonymization model trained on
centralized data. We also showcase Blinder's ability to anonymize the radio
frequency sensing modality. Our experiments confirm that Blinder can obscure
multiple private attributes at once, and has sufficiently low power consumption
and computational overhead for it to be deployed on edge devices and
smartphones to perform real-time anonymization of sensor data.
- Abstract(参考訳): 本稿では,分散データに基づいてトレーニングを行い,センサデータが異なる下位分布を持つ異種環境においても,データユーティリティとプライバシの間の望ましいトレードオフを行うセンサデータ匿名化モデルを提案する。
われわれの匿名化モデルは blinder と呼ばれ、変分オートエンコーダと、1つまたは複数の識別ネットワークを敵のやり方で訓練している。
モデルに依存しないメタラーニングフレームワークを用いて,各ユーザのデータ分布にフェデレーション学習を通じてトレーニングされた匿名化モデルを適用する。
我々はBlinderを異なる設定で評価し、2つのIMUデータセットに対して、プライバシー損失を最大4.00%増加し、データユーティリティを最大4.24%減少させることで、エンドツーエンドのプライバシ保護を提供することを示した。
また,周波数センシングモードを匿名化するブラインドラーの能力についても紹介する。
実験により,Blinderは一度に複数のプライベート属性を隠蔽できることを確認した。センサデータのリアルタイム匿名化を実現するために,エッジデバイスやスマートフォンに展開する電力消費と計算オーバーヘッドが十分に低い。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Trajectory K-Anonymity Model Based on Point Density and Partition [0.0]
本稿では点密度と分割(K PDP)に基づく軌道K匿名性モデルを開発する。
再識別攻撃に抵抗し、k匿名データセットのデータユーティリティ損失を低減する。
論文 参考訳(メタデータ) (2023-07-31T17:10:56Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Active Privacy-Utility Trade-off Against Inference in Time-Series Data
Sharing [29.738666406095074]
我々は、誠実だが信頼できるサービスプロバイダ(SP)のサービスに見返りに、個人情報を含むデータを公開しているユーザについて検討する。
両問題を部分的に観測可能なマルコフ決定過程(POMDP)として定式化し,アクター・クリティック(A2C)深部強化学習(DRL)を用いて数値的に解いた。
本研究では,合成データと喫煙活動データセットの両方に対するポリシーのプライバシユーティリティトレードオフ(PUT)を評価し,長い短期記憶(LSTM)ニューラルネットワークでモデル化されたSPのアクティビティ検出精度をテストすることにより,その妥当性を示す。
論文 参考訳(メタデータ) (2022-02-11T18:57:31Z) - Joint Optimization in Edge-Cloud Continuum for Federated Unsupervised
Person Re-identification [24.305773593017932]
FedUReIDは、個人のReIDモデルをラベルなしで学習し、プライバシを保護するための、フェデレートされた教師なしのReIDシステムである。
エッジがデータ量や分布によって異なる問題に対処するために,クラウドとエッジの共同最適化によるエッジでのトレーニングを個人化する。
8人のReIDデータセットの実験では、FedUReIDは高い精度を達成するが、計算コストを29%削減することを示した。
論文 参考訳(メタデータ) (2021-08-14T08:35:55Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Anonymizing Sensor Data on the Edge: A Representation Learning and
Transformation Approach [4.920145245773581]
本稿では,データ難読化に有用な低次元表現を学習することで,ユーティリティとプライバシ損失のトレードオフを検討することを目的とする。
本稿では,時系列データを合成するための変分オートエンコーダの潜時空間における決定論的および確率的変換を提案する。
リソース制約のあるエッジデバイス上で,データをリアルタイムに匿名化できることを示す。
論文 参考訳(メタデータ) (2020-11-16T22:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。