論文の概要: Achieving Transparency Report Privacy in Linear Time
- arxiv url: http://arxiv.org/abs/2104.00137v1
- Date: Wed, 31 Mar 2021 22:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:31:30.561114
- Title: Achieving Transparency Report Privacy in Linear Time
- Title(参考訳): 線形時間で透明性レポートのプライバシを実現する
- Authors: Chien-Lun Chen, Leana Golubchik, Ranjan Pal
- Abstract要約: 我々はまず,公開atrにおける透明性と公平性対策の展開によって引き起こされる潜在的なプライバシーリスクを調査し,実証する。
そこで本研究では,標準線形分数プログラミング(LFP)理論に基づく線形時間最適プライバシスキームを提案し,ATRを発表する。
当機構が引き起こすプライバシー・ユーティリティのトレードオフを定量化し、プライバシーの乱用がATRの公正性対策に与える影響を分析します。
- 参考スコア(独自算出の注目度): 1.9981375888949475
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An accountable algorithmic transparency report (ATR) should ideally
investigate the (a) transparency of the underlying algorithm, and (b) fairness
of the algorithmic decisions, and at the same time preserve data subjects'
privacy. However, a provably formal study of the impact to data subjects'
privacy caused by the utility of releasing an ATR (that investigates
transparency and fairness), is yet to be addressed in the literature. The
far-fetched benefit of such a study lies in the methodical characterization of
privacy-utility trade-offs for release of ATRs in public, and their
consequential application-specific impact on the dimensions of society,
politics, and economics. In this paper, we first investigate and demonstrate
potential privacy hazards brought on by the deployment of transparency and
fairness measures in released ATRs. To preserve data subjects' privacy, we then
propose a linear-time optimal-privacy scheme, built upon standard linear
fractional programming (LFP) theory, for announcing ATRs, subject to
constraints controlling the tolerance of privacy perturbation on the utility of
transparency schemes. Subsequently, we quantify the privacy-utility trade-offs
induced by our scheme, and analyze the impact of privacy perturbation on
fairness measures in ATRs. To the best of our knowledge, this is the first
analytical work that simultaneously addresses trade-offs between the triad of
privacy, utility, and fairness, applicable to algorithmic transparency reports.
- Abstract(参考訳): 説明可能なアルゴリズム透明性レポート(ATR)は、(a)アルゴリズムの透明性と(b)アルゴリズム決定の公平性を理想的に調査し、同時に、データ対象者のプライバシーを保護すべきである。
しかし、ATR(透明性と公正性を調査する)の公開によるデータ対象のプライバシへの影響に関する実証可能な公式な研究は、文献ではまだ解決されていない。
このような研究の圧倒的な利点は、公の場でのATRの公開のためのプライバシー利用トレードオフの方法論的特徴と、社会、政治、経済学の次元に対する適用性に影響を及ぼすことである。
本稿では,ATRの透明性と公平性対策の展開によって生じる潜在的なプライバシーリスクについて,まず調査し,実証する。
次に,データ対象者のプライバシーを守るために,atrsを公表するための標準線形分数プログラミング(lfp)理論に基づく線形時間最適プライバシースキームを提案し,透明性スキームの有用性にプライバシ摂動の許容性を制御する制約を課す。
続いて,提案手法によって引き起こされるプライバシー利用トレードオフを定量化し,atrにおける公平性対策に対するプライバシー摂動の影響を分析する。
私たちの知る限りでは、これは、アルゴリズムの透明性レポートに適用可能な、プライバシ、ユーティリティ、公平の三者間のトレードオフを同時に扱う、最初の分析作業です。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy for Fairness: Information Obfuscation for Fair Representation
Learning with Local Differential Privacy [26.307780067808565]
本研究では,プライバシと公正性の相互作用を包括的に検証するための理論的枠組みを提案する。
公平な表現学習のための情報ボトルネック(IB)に基づく情報難読化手法(LDP)を開発し,解析する。
MLにおける公平性に関する実証的研究とは対照的に,符号化過程における LDP のランダム化は,学習された表現の公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-16T06:35:10Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Auditing and Generating Synthetic Data with Controllable Trust
Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Online publication of court records: circumventing the
privacy-transparency trade-off [0.0]
法律データへの大規模なアクセスに対処するには,現在のプラクティスが不十分である,と我々は主張する。
本稿では,プライバシ保護法定データパブリッシングシステムへの道を切り開く,ストローマンマルチモーダルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-03T13:58:01Z) - On the Privacy-Utility Tradeoff in Peer-Review Data Analysis [34.0435377376779]
ピアレビューの改善に関する研究における大きな障害は、ピアレビューデータの利用不可能である。
我々は、特定の会議のピアレビューデータのプライバシー保護のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T21:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。