論文の概要: Privacy Guarantees for Personal Mobility Data in Humanitarian Response
- arxiv url: http://arxiv.org/abs/2306.09471v3
- Date: Sun, 17 Nov 2024 23:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:26:06.338362
- Title: Privacy Guarantees for Personal Mobility Data in Humanitarian Response
- Title(参考訳): 人道支援における個人移動データに対するプライバシ保証
- Authors: Nitin Kohli, Emily Aiken, Joshua Blumenstock,
- Abstract要約: 集約されたモビリティトレースでさえ、個人の動きに関する情報を悪意のあるアクターに公開することができる。
本稿では,個人の移動データを公開するためのアプローチを開発し,検証し,基礎となる被験者のプライバシーに関する公式な保証を提供する。
- 参考スコア(独自算出の注目度): 0.351124620232225
- License:
- Abstract: Personal mobility data from mobile phones and other sensors are increasingly used to inform policymaking during pandemics, natural disasters, and other humanitarian crises. However, even aggregated mobility traces can reveal private information about individual movements to potentially malicious actors. This paper develops and tests an approach for releasing private mobility data, which provides formal guarantees over the privacy of the underlying subjects. Specifically, we (1) introduce an algorithm for constructing differentially private mobility matrices, and derive privacy and accuracy bounds on this algorithm; (2) use real-world data from mobile phone operators in Afghanistan and Rwanda to show how this algorithm can enable the use of private mobility data in two high-stakes policy decisions: pandemic response and the distribution of humanitarian aid; and (3) discuss practical decisions that need to be made when implementing this approach, such as how to optimally balance privacy and accuracy. Taken together, these results can help enable the responsible use of private mobility data in humanitarian response.
- Abstract(参考訳): 携帯電話やその他のセンサーからの個人的モビリティデータは、パンデミックや自然災害、その他の人道的危機の際の政策決定にますます利用されている。
しかし、集約されたモビリティトレースでさえ、個人の動きに関する情報を悪意のあるアクターに公開することができる。
本稿では,個人の移動データを公開するためのアプローチを開発し,検証し,基礎となる被験者のプライバシーに関する公式な保証を提供する。
具体的には,(1)個別にプライベートなモビリティ行列を構築するアルゴリズムを導入し,このアルゴリズムに基づいてプライバシと精度のバウンダリを導出する。(2)アフガニスタンとルワンダの携帯電話事業者による実世界のデータを用いて,パンデミック対応と人道支援の分散という2つの高い政策決定において,プライベートなモビリティデータをどのように活用できるかを示す。(3)このアプローチを実施する際に必要となる,プライバシーと精度の最適バランスなど,実践的な決定について議論する。
これらの結果は、人道的反応におけるプライベートモビリティデータの利用の責任を負う上で有効である。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Enabling Humanitarian Applications with Targeted Differential Privacy [0.39462888523270856]
本稿では,個人データに基づくアルゴリズム決定手法を提案する。
データ被写体に正式なプライバシー保証を提供する。
プライバシーの保証が強化されるのは通常、ある程度のコストがかかる。
論文 参考訳(メタデータ) (2024-08-24T01:34:37Z) - Differentially Private Data Release on Graphs: Inefficiencies and Unfairness [48.96399034594329]
本稿では,ネットワーク情報公開の文脈における偏見と不公平性に対する差別的プライバシの影響を特徴づける。
ネットワーク構造が全員に知られているネットワークリリースの問題を考えるが、エッジの重みをプライベートにリリースする必要がある。
我々の研究は、これらのネットワーク化された決定問題におけるプライバシーに起因する偏見と不公平性に関する理論的根拠と実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T08:37:37Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - HRNet: Differentially Private Hierarchical and Multi-Resolution Network for Human Mobility Data Synthesization [19.017342515321918]
我々は,現実的な人間の移動データを合成するための新しい深層生成モデルである階層・多解ネットワーク(HRNet)を紹介した。
まず、差分プライバシーの下で人間の移動データを学習する際の重要な困難を識別する。
HRNetは、階層的なロケーションエンコーディング機構、複数解像度にわたるマルチタスク学習、プライベート事前トレーニングの3つのコンポーネントを統合している。
論文 参考訳(メタデータ) (2024-05-13T12:56:24Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Privacy-Aware Adversarial Network in Human Mobility Prediction [11.387235721659378]
ユーザの再識別やその他の機密性の高い推論は、位置情報データがクラウド支援アプリケーションと共有される場合、主要なプライバシー上の脅威である。
LSTMに基づく逆表現学習により、元の位置情報データのプライバシー保護機能表現を実現する。
モビリティトレースのプライバシは、限界モビリティユーティリティーのコストで、まともな保護を達成できることを示します。
論文 参考訳(メタデータ) (2022-08-09T19:23:13Z) - Privacy-Aware Human Mobility Prediction via Adversarial Networks [10.131895986034314]
本研究では,LSTMをベースとした新たな逆方向学習機構を実装し,従来の位置情報データ(移動データ)のプライバシー保護機能表現を共有目的に実現した。
我々は,軌道再構成リスク,ユーザ再識別リスク,移動予測可能性の観点から,移動データセットのユーティリティプライバシトレードオフを定量化する。
論文 参考訳(メタデータ) (2022-01-19T10:41:10Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。