論文の概要: Position: Challenges and Opportunities for Differential Privacy in the U.S. Federal Government
- arxiv url: http://arxiv.org/abs/2410.16423v1
- Date: Mon, 21 Oct 2024 18:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:30:34.166683
- Title: Position: Challenges and Opportunities for Differential Privacy in the U.S. Federal Government
- Title(参考訳): 米国連邦政府における差別的プライバシーの課題と機会
- Authors: Amol Khanna, Adam McCormick, Andre Nguyen, Chris Aguirre, Edward Raff,
- Abstract要約: 我々は、連邦政府設定内での差分プライバシーの課題と機会の解明を目指しています。
我々は、現在米国政府における差分プライバシーの使用を制限している3つの重要な課題を強調します。
差分プライバシーが政府機関の能力を高める2つの例を提供する。
- 参考スコア(独自算出の注目度): 34.255047514441195
- License:
- Abstract: In this article, we seek to elucidate challenges and opportunities for differential privacy within the federal government setting, as seen by a team of differential privacy researchers, privacy lawyers, and data scientists working closely with the U.S. government. After introducing differential privacy, we highlight three significant challenges which currently restrict the use of differential privacy in the U.S. government. We then provide two examples where differential privacy can enhance the capabilities of government agencies. The first example highlights how the quantitative nature of differential privacy allows policy security officers to release multiple versions of analyses with different levels of privacy. The second example, which we believe is a novel realization, indicates that differential privacy can be used to improve staffing efficiency in classified applications. We hope that this article can serve as a nontechnical resource which can help frame future action from the differential privacy community, privacy regulators, security officers, and lawmakers.
- Abstract(参考訳): 本稿では、差分プライバシー研究者、プライバシー弁護士、および米国政府と密接に協力するデータサイエンティストのチームで見られるように、連邦政府設定における差分プライバシーの課題と機会の解明を目指す。
差分プライバシーを導入した後、米国政府における差分プライバシーの使用を制限する3つの重要な課題を強調します。
次に、差分プライバシーが政府機関の能力を強化する2つの例を提示します。
最初の例では、差分プライバシーの量的性質によって、ポリシーセキュリティ担当者が、異なるレベルのプライバシーを持つ複数のバージョンの分析をリリースできる点を強調している。
第2の例は、新しい実現法であると考えており、分類されたアプリケーションのスタッフの効率を改善するために、差分プライバシーを使用することができることを示している。
この記事は、差分プライバシーコミュニティ、プライバシー規制当局、セキュリティオフィサー、および議員の今後の行動を理解するのに役立つ非技術リソースとして機能することを願っている。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Formalization of Differential Privacy in Isabelle/HOL [0.16574413179773761]
本稿では,Isabelle/HOLライブラリを提案する。
我々の知る限り、これは連続確率分布をサポートする微分プライバシーの最初の形式化である。
論文 参考訳(メタデータ) (2024-10-20T13:06:13Z) - Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Equity and Privacy: More Than Just a Tradeoff [10.545898004301323]
近年の研究では、プライバシ保護データ公開が、異なる集団グループ間で異なるレベルのユーティリティを導入できることが示されている。
限界人口は、プライバシー技術から不公平に実用性を減らすのだろうか?
不等式があれば、どのように対処すればよいのか?
論文 参考訳(メタデータ) (2021-11-08T17:39:32Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - Applications of Differential Privacy in Social Network Analysis: A
Survey [60.696428840516724]
差別化プライバシは、情報を共有し、強力な保証でプライバシを保存するのに有効である。
ソーシャルネットワーク分析は多くのアプリケーションで広く採用されており、差分プライバシーの応用のための新たな領域が開かれた。
論文 参考訳(メタデータ) (2020-10-06T19:06:03Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。