論文の概要: Achieving Transparency Report Privacy in Linear Time
- arxiv url: http://arxiv.org/abs/2104.00137v1
- Date: Wed, 31 Mar 2021 22:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:31:30.561114
- Title: Achieving Transparency Report Privacy in Linear Time
- Title(参考訳): 線形時間で透明性レポートのプライバシを実現する
- Authors: Chien-Lun Chen, Leana Golubchik, Ranjan Pal
- Abstract要約: 我々はまず,公開atrにおける透明性と公平性対策の展開によって引き起こされる潜在的なプライバシーリスクを調査し,実証する。
そこで本研究では,標準線形分数プログラミング(LFP)理論に基づく線形時間最適プライバシスキームを提案し,ATRを発表する。
当機構が引き起こすプライバシー・ユーティリティのトレードオフを定量化し、プライバシーの乱用がATRの公正性対策に与える影響を分析します。
- 参考スコア(独自算出の注目度): 1.9981375888949475
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An accountable algorithmic transparency report (ATR) should ideally
investigate the (a) transparency of the underlying algorithm, and (b) fairness
of the algorithmic decisions, and at the same time preserve data subjects'
privacy. However, a provably formal study of the impact to data subjects'
privacy caused by the utility of releasing an ATR (that investigates
transparency and fairness), is yet to be addressed in the literature. The
far-fetched benefit of such a study lies in the methodical characterization of
privacy-utility trade-offs for release of ATRs in public, and their
consequential application-specific impact on the dimensions of society,
politics, and economics. In this paper, we first investigate and demonstrate
potential privacy hazards brought on by the deployment of transparency and
fairness measures in released ATRs. To preserve data subjects' privacy, we then
propose a linear-time optimal-privacy scheme, built upon standard linear
fractional programming (LFP) theory, for announcing ATRs, subject to
constraints controlling the tolerance of privacy perturbation on the utility of
transparency schemes. Subsequently, we quantify the privacy-utility trade-offs
induced by our scheme, and analyze the impact of privacy perturbation on
fairness measures in ATRs. To the best of our knowledge, this is the first
analytical work that simultaneously addresses trade-offs between the triad of
privacy, utility, and fairness, applicable to algorithmic transparency reports.
- Abstract(参考訳): 説明可能なアルゴリズム透明性レポート(ATR)は、(a)アルゴリズムの透明性と(b)アルゴリズム決定の公平性を理想的に調査し、同時に、データ対象者のプライバシーを保護すべきである。
しかし、ATR(透明性と公正性を調査する)の公開によるデータ対象のプライバシへの影響に関する実証可能な公式な研究は、文献ではまだ解決されていない。
このような研究の圧倒的な利点は、公の場でのATRの公開のためのプライバシー利用トレードオフの方法論的特徴と、社会、政治、経済学の次元に対する適用性に影響を及ぼすことである。
本稿では,ATRの透明性と公平性対策の展開によって生じる潜在的なプライバシーリスクについて,まず調査し,実証する。
次に,データ対象者のプライバシーを守るために,atrsを公表するための標準線形分数プログラミング(lfp)理論に基づく線形時間最適プライバシースキームを提案し,透明性スキームの有用性にプライバシ摂動の許容性を制御する制約を課す。
続いて,提案手法によって引き起こされるプライバシー利用トレードオフを定量化し,atrにおける公平性対策に対するプライバシー摂動の影響を分析する。
私たちの知る限りでは、これは、アルゴリズムの透明性レポートに適用可能な、プライバシ、ユーティリティ、公平の三者間のトレードオフを同時に扱う、最初の分析作業です。
関連論文リスト
- Data Obfuscation through Latent Space Projection (LSP) for Privacy-Preserving AI Governance: Case Studies in Medical Diagnosis and Finance Fraud Detection [0.0]
本稿では、AIガバナンスの強化と、責任あるAIコンプライアンスの確保を目的とした、新しい技術であるLSP(Data Obfuscation through Latent Space Projection)を紹介する。
LSPは機械学習を使用して、機密データを潜在空間に投影し、モデルトレーニングと推論に不可欠な機能を保ちながら効果的に難読化する。
LSPの有効性は、ベンチマークデータセットの実験と、医療がん診断と金融詐欺分析の2つの実世界のケーススタディを通じて検証する。
論文 参考訳(メタデータ) (2024-10-22T22:31:03Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Synthetic Data: Revisiting the Privacy-Utility Trade-off [4.832355454351479]
ある記事は、合成データは従来の匿名化技術よりもプライバシーとユーティリティのトレードオフが良くないと述べている。
記事はまた、PATEGANとPrivBayesが提供した差分プライバシー保証の違反を特定したと主張している。
本稿で記述したプライバシゲームの実装を分析し,高度に専門的で制約のある環境で動作していることを確認した。
論文 参考訳(メタデータ) (2024-07-09T14:48:43Z) - Privacy for Fairness: Information Obfuscation for Fair Representation
Learning with Local Differential Privacy [26.307780067808565]
本研究では,プライバシと公正性の相互作用を包括的に検証するための理論的枠組みを提案する。
公平な表現学習のための情報ボトルネック(IB)に基づく情報難読化手法(LDP)を開発し,解析する。
MLにおける公平性に関する実証的研究とは対照的に,符号化過程における LDP のランダム化は,学習された表現の公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-16T06:35:10Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - On the Privacy-Utility Tradeoff in Peer-Review Data Analysis [34.0435377376779]
ピアレビューの改善に関する研究における大きな障害は、ピアレビューデータの利用不可能である。
我々は、特定の会議のピアレビューデータのプライバシー保護のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T21:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。