論文の概要: Enabling Humanitarian Applications with Targeted Differential Privacy
- arxiv url: http://arxiv.org/abs/2408.13424v1
- Date: Sat, 24 Aug 2024 01:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 19:39:20.368461
- Title: Enabling Humanitarian Applications with Targeted Differential Privacy
- Title(参考訳): 差別化プライバシをターゲットとした人道的アプリケーションの実現
- Authors: Nitin Kohli, Joshua Blumenstock,
- Abstract要約: 本稿では,個人データに基づくアルゴリズム決定手法を提案する。
データ被写体に正式なプライバシー保証を提供する。
プライバシーの保証が強化されるのは通常、ある程度のコストがかかる。
- 参考スコア(独自算出の注目度): 0.39462888523270856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of mobile phones in low- and middle-income countries has suddenly and dramatically increased the extent to which the world's poorest and most vulnerable populations can be observed and tracked by governments and corporations. Millions of historically "off the grid" individuals are now passively generating digital data; these data, in turn, are being used to make life-altering decisions about those individuals -- including whether or not they receive government benefits, and whether they qualify for a consumer loan. This paper develops an approach to implementing algorithmic decisions based on personal data, while also providing formal privacy guarantees to data subjects. The approach adapts differential privacy to applications that require decisions about individuals, and gives decision makers granular control over the level of privacy guaranteed to data subjects. We show that stronger privacy guarantees typically come at some cost, and use data from two real-world applications -- an anti-poverty program in Togo and a consumer lending platform in Nigeria -- to illustrate those costs. Our empirical results quantify the tradeoff between privacy and predictive accuracy, and characterize how different privacy guarantees impact overall program effectiveness. More broadly, our results demonstrate a way for humanitarian programs to responsibly use personal data, and better equip program designers to make informed decisions about data privacy.
- Abstract(参考訳): 低所得国や中所得国における携帯電話の普及は、世界の貧困層や最も脆弱な人口が政府や企業によって観察され、追跡される範囲を劇的に増加させてきた。
歴史的に「グリッド外」の個人がデジタルデータを受動的に生成している。これらのデータは、政府の給付を受けているかどうか、消費者ローンの資格があるかどうかなど、それらの個人について、人生を変える決定を下すために使用されている。
本稿では,個人データに基づくアルゴリズム決定の実装手法を開発し,データ対象に対して公式なプライバシ保証を提供する。
このアプローチは、個人に関する決定を必要とするアプリケーションに差分プライバシを適用し、データ主体に保証されるプライバシのレベルを、意思決定者がきめ細かいコントロールを提供する。
より強力なプライバシー保証は、一般的にある程度のコストがかかることを示し、実際の2つのアプリケーションからのデータ(Togoの反ポルノプログラムとナイジェリアの消費者貸付プラットフォーム)を使って、それらのコストを例示している。
私たちの経験的な結果は、プライバシと予測精度のトレードオフを定量化し、プライバシの保証が異なることがプログラム全体の効果に与える影響を特徴づけます。
より広範に、私たちの結果は、人道的プログラムが責任を持って個人データを使用する方法を示し、データプライバシに関する情報決定を行うためのプログラムデザイナーの装備を向上する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Lomas: A Platform for Confidential Analysis of Private Data [0.0]
Lomasは、公共機関が保持するデータの潜在能力をフルに実現するために設計された、オープンソースの新しいプラットフォームである。
承認された研究者や政府アナリストなどの認証されたユーザは、機密データセット上でアルゴリズムを実行することができる。
Lomasはデータをユーザに公開せずにこれらのアルゴリズムを実行し、差分プライバシーによって保護された結果を返す。
論文 参考訳(メタデータ) (2024-06-24T19:16:58Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Assessing Mobile Application Privacy: A Quantitative Framework for Privacy Measurement [0.0]
この研究は、プライバシを優先し、情報に基づく意思決定を促進し、プライバシ保護設計原則を支持したデジタル環境に貢献することを目的としている。
このフレームワークの目的は、特定のAndroidアプリケーションを使用する際のプライバシーリスクのレベルを体系的に評価することである。
論文 参考訳(メタデータ) (2023-10-31T18:12:19Z) - Big Data Privacy in Emerging Market Fintech and Financial Services: A Research Agenda [0.9310318514564271]
白書では、新興市場および金融サービスにおけるデータプライバシの問題と解決策の理解を深めるための研究課題について述べる。
我々は、包括的な分析、データプライバシのローカル定義の理解、リスクの主な原因の文書化、潜在的な技術的解決策の5つの研究分野について強調する。
この研究課題が、新興市場におけるプライバシーの多面的な性質に注目されることを願っている。
論文 参考訳(メタデータ) (2023-10-08T02:11:19Z) - Privacy Guarantees for Personal Mobility Data in Humanitarian Response [0.351124620232225]
集約されたモビリティトレースでさえ、個人の動きに関する情報を悪意のあるアクターに公開することができる。
本稿では,個人の移動データを公開するためのアプローチを開発し,検証し,基礎となる被験者のプライバシーに関する公式な保証を提供する。
論文 参考訳(メタデータ) (2023-06-15T19:53:17Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。