論文の概要: Differentially Private Topological Data Analysis
- arxiv url: http://arxiv.org/abs/2305.03609v1
- Date: Fri, 5 May 2023 15:15:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 13:34:20.037170
- Title: Differentially Private Topological Data Analysis
- Title(参考訳): 微分プライベートトポロジカルデータ解析
- Authors: Taegyu Kang, Sehwan Kim, Jinwon Sohn, Jordan Awan
- Abstract要約: 微分プライベート(DP)トポロジカルデータ解析(TDA)を初めて試みる。
一般的に用いられるvCech複合体は、サンプルサイズがn$増加するにつれて低下しない感度を持つことを示す。
実用関数が$L1$-DTM持続図のボトルネック距離で定義される指数関数機構を用いる。
- 参考スコア(独自算出の注目度): 5.310990417379222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is the first to attempt differentially private (DP) topological
data analysis (TDA), producing near-optimal private persistence diagrams. We
analyze the sensitivity of persistence diagrams in terms of the bottleneck
distance, and we show that the commonly used \v{C}ech complex has sensitivity
that does not decrease as the sample size $n$ increases. This makes it
challenging for the persistence diagrams of \v{C}ech complexes to be
privatized. As an alternative, we show that the persistence diagram obtained by
the $L^1$-distance to measure (DTM) has sensitivity $O(1/n)$. Based on the
sensitivity analysis, we propose using the exponential mechanism whose utility
function is defined in terms of the bottleneck distance of the $L^1$-DTM
persistence diagrams. We also derive upper and lower bounds of the accuracy of
our privacy mechanism; the obtained bounds indicate that the privacy error of
our mechanism is near-optimal. We demonstrate the performance of our privatized
persistence diagrams through simulations as well as on a real dataset tracking
human movement.
- Abstract(参考訳): 本稿では, 微分プライベート(DP)トポロジカルデータ解析 (TDA) を初めて試み, ほぼ最適なプライベート永続図を作成する。
ボトルネック距離の観点から永続性図形の感度を解析し, 一般的に用いられる \v{C}ech 錯体は, サンプルサイズが$n$増加するにつれて低下しない感度を持つことを示した。
これにより、v{C}ech錯体の永続図式を民営化するのが困難になる。
代替として、DTM(DTM)測定のための$L^1$-distanceによって得られた持続図は、感度$O(1/n)$であることを示す。
感度解析に基づいて, $l^1$-dtm パーシステンスダイアグラムのボトルネック距離からユーティリティ関数を定義する指数関数機構を用いることを提案する。
また、プライバシ機構の精度の上限を上下に導出し、得られた境界は、機構のプライバシエラーがほぼ最適であることを示している。
シミュレーションと実際のデータセットによる人間の動きの追跡により,民営化された永続化図の性能を実証する。
関連論文リスト
- The Last Iterate Advantage: Empirical Auditing and Principled Heuristic Analysis of Differentially Private SGD [46.71175773861434]
ノイズカットされた勾配勾配(DP-SGD)の簡易なプライバシー解析法を提案する。
各種トレーニング手順に適用したプライバシー監査の結果を予測できることを実験的に示す。
既存のプライバシー監査攻撃は、視覚と言語の両方のタスクにおける分析によって制限されていることを実証的に示しています。
論文 参考訳(メタデータ) (2024-10-08T16:51:10Z) - Locally Private Histograms in All Privacy Regimes [14.453502159917525]
中~下級のプライバシ体制において,局所的な私的ヒストグラムと,それに関連する分布学習課題について検討する。
我々は,従来のアルゴリズムと精度を一致させるが,メッセージや通信の複雑さが著しく向上した,局所的な微分プライバシーモデルにおけるヒストグラムのプロトコルを得る。
局所的な私的ヒストグラム問題において, 基板間の境界を改良した新しい解析結果から, 理論的知見が得られた。
論文 参考訳(メタデータ) (2024-08-09T06:22:45Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Differentially Private Neural Tangent Kernels for Privacy-Preserving
Data Generation [32.83436754714798]
本研究は,$textitneural tangent kernels (NTKs)$,より正確には$textitempirical$ NTKs (e-NTKs) の機能の利用を検討する。
おそらく意外なことに、トレーニングされていないe-NTK機能の表現力は、公開データを使って事前トレーニングされた知覚機能から得られる機能と同等である。
論文 参考訳(メタデータ) (2023-03-03T03:00:49Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Differentially Private Learning Needs Hidden State (Or Much Faster
Convergence) [9.429448411561541]
差分的にプライベートな学習は、厳密な拘束力を持って、隠れた状態のプライバシ分析や、高速な収束を必要とすることを示す。
私たちの収束するプライバシー分析は、差異のあるプライベートな学習が、厳密な拘束力を持って、隠れた状態のプライバシ分析や、高速な収束を必要とすることを示している。
論文 参考訳(メタデータ) (2022-03-10T13:31:08Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Output Perturbation for Differentially Private Convex Optimization with
Improved Population Loss Bounds, Runtimes and Applications to Private
Adversarial Training [12.386462516398469]
強力な過剰なリスク境界を提供する効率的で実装が容易な差分プライベート(DP)アルゴリズムを見つけることは、現代の機械学習において重要な問題である。
我々は、滑らかさと強い凸性の存在下で、最もよく知られた$(epsilon, 0)$-DP人口損失境界と最速ランタイムを提供する。
我々はこの理論を2つの学習フレームワーク、傾きERMと逆学習フレームワークに適用する。
論文 参考訳(メタデータ) (2021-02-09T08:47:06Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Towards practical differentially private causal graph discovery [74.7791110594082]
因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
そこで本稿では,Priv-PCによる個人用因果グラフ探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-15T18:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。