論文の概要: Analysing Fairness of Privacy-Utility Mobility Models
- arxiv url: http://arxiv.org/abs/2304.06469v1
- Date: Mon, 10 Apr 2023 11:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 14:36:03.964694
- Title: Analysing Fairness of Privacy-Utility Mobility Models
- Title(参考訳): プライバシー利用モビリティモデルの公平性分析
- Authors: Yuting Zhan, Hamed Haddadi, Afra Mashhadi
- Abstract要約: この研究は、人間の移動性のために明示的に設計された公正度メトリクスのセットを定義する。
GANと表現学習に依存した2つの最先端プライバシ保護モデルの公正性を検証し,データ共有におけるユーザの再識別率の低減を図る。
以上の結果から,両モデルがグループフェアネスを保証しているが,個々のフェアネス基準に反し,非常に類似したトラジェクトリを持つユーザに対して,異なるプライバシ向上が認められたことが示唆された。
- 参考スコア(独自算出の注目度): 11.387235721659378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preserving the individuals' privacy in sharing spatial-temporal datasets is
critical to prevent re-identification attacks based on unique trajectories.
Existing privacy techniques tend to propose ideal privacy-utility tradeoffs,
however, largely ignore the fairness implications of mobility models and
whether such techniques perform equally for different groups of users. The
quantification between fairness and privacy-aware models is still unclear and
there barely exists any defined sets of metrics for measuring fairness in the
spatial-temporal context. In this work, we define a set of fairness metrics
designed explicitly for human mobility, based on structural similarity and
entropy of the trajectories. Under these definitions, we examine the fairness
of two state-of-the-art privacy-preserving models that rely on GAN and
representation learning to reduce the re-identification rate of users for data
sharing. Our results show that while both models guarantee group fairness in
terms of demographic parity, they violate individual fairness criteria,
indicating that users with highly similar trajectories receive disparate
privacy gain. We conclude that the tension between the re-identification task
and individual fairness needs to be considered for future spatial-temporal data
analysis and modelling to achieve a privacy-preserving fairness-aware setting.
- Abstract(参考訳): 空間-時間データセットを共有する際の個人のプライバシを保護することは、ユニークな軌跡に基づく再識別攻撃を防止するために重要である。
既存のプライバシ技術は理想的なプライバシーユーティリティトレードオフを提案する傾向にあるが、モビリティモデルの公平性や、そのようなテクニックがユーザグループ毎に同等に機能するかどうかを無視する傾向にある。
公平性とプライバシーを意識したモデルの間の定量化はまだ不明であり、空間-時間的文脈における公平性を測定するための、定義されたメトリクスセットはほとんど存在しない。
本研究では,トラジェクタの構造的類似性とエントロピーに基づいて,人間の移動のために明示的に設計された公平度指標を定義する。
これらの定義に基づき、GANと表現学習に依存する2つの最先端プライバシ保護モデルの公正性を検証し、データ共有におけるユーザの再識別率を低減する。
以上の結果から,両モデルがグループフェアネスを保証しているが,個々のフェアネス基準に反し,非常に類似したトラジェクトリを持つユーザが異なるプライバシゲインを受けることを示す。
我々は,将来的な空間・時間データ分析およびモデリングにおいて,再識別課題と個々人の公平性との緊張関係を考慮し,プライバシー保全的公平性認識環境を実現する必要があると結論づける。
関連論文リスト
- Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Hide-and-Seek Privacy Challenge [88.49671206936259]
NeurIPS 2020 Hide-and-Seek Privacy Challengeは、両方の問題を解決するための新しい2トラックの競争だ。
我々の頭から頭までのフォーマットでは、新しい高品質な集中ケア時系列データセットを用いて、合成データ生成トラック(「ヒッシャー」)と患者再識別トラック(「シーカー」)の参加者が直接対決する。
論文 参考訳(メタデータ) (2020-07-23T15:50:59Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。