論文の概要: Evaluating the Usability of Differential Privacy Tools with Data Practitioners
- arxiv url: http://arxiv.org/abs/2309.13506v3
- Date: Tue, 13 Aug 2024 01:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 23:24:38.599151
- Title: Evaluating the Usability of Differential Privacy Tools with Data Practitioners
- Title(参考訳): データ実践者による差別化プライバシツールの利用性評価
- Authors: Ivoline C. Ngong, Brad Stenger, Joseph P. Near, Yuanyuan Feng,
- Abstract要約: 差別化プライバシ(DP)は、プライバシを保存するデータ分析において、ゴールドスタンダードとなっているが、現実のデータセットやシステムに実装することは依然として困難である。
近年開発されているDPツールは,DPの実装を容易にすることを目的としているが,これらのDPツールのユーザビリティについて限定的な研究がなされている。
我々は,PythonベースのオープンソースDPツールであるDiffPrivLib,Tumult Analytics,PipelineDP,OpenDPのユーザビリティを評価した。
- 参考スコア(独自算出の注目度): 4.072285093323275
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Differential privacy (DP) has become the gold standard in privacy-preserving data analytics, but implementing it in real-world datasets and systems remains challenging. Recently developed DP tools aim to make DP implementation easier, but limited research has investigated these DP tools' usability. Through a usability study with 24 US data practitioners with varying prior DP knowledge, we evaluated the usability of four Python-based open-source DP tools: DiffPrivLib, Tumult Analytics, PipelineDP, and OpenDP. Our results suggest that using DP tools in this study may help DP novices better understand DP; that Application Programming Interface (API) design and documentation are vital for successful DP implementation; and that user satisfaction correlates with how well participants completed study tasks with these DP tools. We provide evidence-based recommendations to improve DP tools' usability to broaden DP adoption.
- Abstract(参考訳): 差別化プライバシ(DP)は、プライバシを保存するデータ分析において、ゴールドスタンダードとなっているが、現実のデータセットやシステムに実装することは依然として困難である。
近年開発されているDPツールは,DPの実装を容易にすることを目的としているが,これらのDPツールのユーザビリティについて限定的な研究がなされている。
DiffPrivLib、Tumult Analytics、PipelineDP、OpenDPという4つのPythonベースのオープンソースDPツールのユーザビリティを評価した。
この結果から,DPツールの使用は,DP初心者のDPの理解に有効である,アプリケーションプログラミングインタフェース(API)の設計とドキュメントがDP実装の成功に不可欠であること,ユーザ満足度がDPツールによる学習タスクの完成度に相関している,などが示唆された。
DPツールのユーザビリティを向上させるためのエビデンスベースのレコメンデーションを提供する。
関連論文リスト
- DOPPLER: Differentially Private Optimizers with Low-pass Filter for Privacy Noise Reduction [47.65999101635902]
差分プライベート(DP)トレーニングは、トレーニングされた機械学習モデルから収集したトレーニングデータの機密情報の漏洩を防止する。
DOPPLERと呼ばれる新しいコンポーネントを開発し、この周波数領域内のDPノイズを効果的に増幅する。
実験の結果,低域通過フィルタを用いたDPは,試験精度で3%-10%向上した。
論文 参考訳(メタデータ) (2024-08-24T04:27:07Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Pre-training Differentially Private Models with Limited Public Data [54.943023722114134]
ディファレンシャルプライバシ(DP)は、モデルに提供されるセキュリティの度合いを測定するための重要な手法である。
DPはまだ、最初の事前訓練段階で使用されるデータのかなりの部分を保護することができない。
公共データの10%しか利用しない新しいDP継続事前学習戦略を開発した。
ImageNet-21kのDP精度は41.5%、非DP精度は55.7%、下流タスクのPlaces365とiNaturalist-2021では60.0%である。
論文 参考訳(メタデータ) (2024-02-28T23:26:27Z) - Selectivity Drives Productivity: Efficient Dataset Pruning for Enhanced
Transfer Learning [66.20311762506702]
データセットプルーニング(DP)は、データ効率を改善する効果的な方法として登場した。
本稿では,ラベルマッピングと特徴マッピングという2つの新しいDP手法を提案する。
ダウンストリーム性能を犠牲にすることなく、ソースデータクラスを最大40%まで刈り取ることができることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:07:49Z) - ULDP-FL: Federated Learning with Across Silo User-Level Differential Privacy [19.017342515321918]
Differentially Private Federated Learning (DP-FL)は、正式なプライバシを保証するための協調的な機械学習アプローチとして注目を集めている。
Uldp-FLは,単一ユーザのデータが複数のサイロに属する可能性のあるクロスサイロFLにおいて,ユーザレベルのDPを保証するように設計された,新しいFLフレームワークである。
論文 参考訳(メタデータ) (2023-08-23T15:50:51Z) - Personalized DP-SGD using Sampling Mechanisms [5.50042037663784]
Phi$,$Delta$)- Personalized Differential Privacy (($Phi$,$Delta$)- PDP。
提案アルゴリズムは,複数ラウンドのパーソナライズされたサンプリング機構を使用し,DP-SGDイテレーションに組み込む。
実データを用いた実験の結果,提案アルゴリズムはDP-SGDとDP-SGDと既存のPDP機構の単純な組み合わせよりも優れていた。
論文 参考訳(メタデータ) (2023-05-24T13:56:57Z) - DPMLBench: Holistic Evaluation of Differentially Private Machine
Learning [8.568872924668662]
近年,DP-SGDに基づくアルゴリズムの改良が提案されている。
さらに重要なのは、これらのDPMLアルゴリズムの改善を実用性、防御能力、一般化可能性で比較する包括的な研究が欠如していることだ。
このギャップを,画像分類タスクにおけるメンバーシップ推論攻撃(MIA)に対する実用性と防御能力に関する改良DPMLアルゴリズムの総合的な測定によって埋める。
論文 参考訳(メタデータ) (2023-05-10T05:08:36Z) - Exploring the Benefits of Visual Prompting in Differential Privacy [54.56619360046841]
Visual Prompting (VP)は、よく訓練されたフリーズソースモデルを設計することで、下流タスクへのサンプル効率の適応を可能にする、新しくて強力なテクニックである。
本稿では,VPを標準DPトレーニング手法に統合し,そのシンプルさと効率性を実証する。
論文 参考訳(メタデータ) (2023-03-22T01:01:14Z) - Make Landscape Flatter in Differentially Private Federated Learning [69.78485792860333]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAMは、局所的な平坦性モデルと、より優れた安定性と重量頑健性を統合し、DPノイズに対する局所的な更新とロバスト性の小さなノルムをもたらす。
提案アルゴリズムは,DPFLの既存のSOTAベースラインと比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-03-20T16:27:36Z) - How to DP-fy ML: A Practical Guide to Machine Learning with Differential
Privacy [22.906644117887133]
差分プライバシー(DP)は、データ匿名化に関する公式声明を作成するための金の標準となっている。
DPの採用は、DP保護が持つもの、プライバシーが目的とするもの、そしてMLモデルの優れたプライバシ・ユーティリティ・コンピューティングトレードオフを達成することの難しさに関する限られた実践的なガイダンスによって妨げられている。
この研究は自己完結型のガイドであり、DP MLの分野を詳細に概観し、厳格なプライバシー保証を備えた最高のDP MLモデルを達成するための情報を提供する。
論文 参考訳(メタデータ) (2023-03-01T16:56:39Z) - Lifelong DP: Consistently Bounded Differential Privacy in Lifelong
Machine Learning [28.68587691924582]
新たなタスクを継続的に学習し,過去のタスクを記憶するプロセスは,未知のプライバシリスクと,プライバシ損失を拘束する課題をもたらすことを示す。
ライフロングDPの形式的定義を導入し、任意のタスクのトレーニングセットにデータを含めることが保護される。
我々はL2DP-MLと呼ばれるスケーラブルで異種なアルゴリズムを提案し、L2Mモデルの新バージョンを効率的に訓練し、継続する。
論文 参考訳(メタデータ) (2022-07-26T11:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。