論文の概要: ppAUC: Privacy Preserving Area Under the Curve with Secure 3-Party
Computation
- arxiv url: http://arxiv.org/abs/2102.08788v1
- Date: Wed, 17 Feb 2021 14:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 00:45:27.387326
- Title: ppAUC: Privacy Preserving Area Under the Curve with Secure 3-Party
Computation
- Title(参考訳): ppAUC: セキュアな3部計算による曲線下のプライバシー保護エリア
- Authors: Ali Burak \"Unal, Nico Pfeifer, Mete Akg\"un
- Abstract要約: プライバシー保護AUC(ppAUC)と呼ばれるMPCベースのフレームワークを提案する。
pAUCを用いて高精度リコール曲線と受信特性曲線の正確な面積の計算を行う。
当社のソリューションは、安全な計算を実行するサーバーの少なくとも1つに対して、半正直な破損に対するセキュリティを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing an AUC as a performance measure to compare the quality of different
machine learning models is one of the final steps of many research projects.
Many of these methods are trained on privacy-sensitive data and there are
several different approaches like $\epsilon$-differential privacy, federated
machine learning and methods based on cryptographic approaches if the datasets
cannot be shared or evaluated jointly at one place. In this setting, it can
also be a problem to compute the global AUC, since the labels might also
contain privacy-sensitive information. There have been approaches based on
$\epsilon$-differential privacy to deal with this problem, but to the best of
our knowledge, no exact privacy preserving solution has been introduced. In
this paper, we propose an MPC-based framework, called privacy preserving AUC
(ppAUC), with novel methods for comparing two secret-shared values, selecting
between two secret-shared values, converting the modulus and performing
division to compute the exact AUC as one could obtain on the pooled original
test samples. We employ ppAUC in the computation of the exact area under
precision-recall curve and receiver operating characteristic curve even for
ties between prediction confidence values. To prove the correctness of ppAUC,
we apply it to evaluate a model trained to predict acute myeloid leukemia
therapy response and we also assess its scalability via experiments on
synthetic data. The experiments show that we efficiently compute exactly the
same AUC with both evaluation metrics in a privacy preserving manner as one can
obtain on the pooled test samples in the plaintext domain. Our solution
provides security against semi-honest corruption of at most one of the servers
performing the secure computation.
- Abstract(参考訳): さまざまな機械学習モデルの品質を比較するためのパフォーマンス指標としてのAUCの計算は多くの研究プロジェクトの最終段階の1つである。
これらのメソッドの多くはプライバシに敏感なデータに基づいてトレーニングされており、$\epsilon$-differential privacy、federated machine learning、暗号化アプローチに基づくメソッドなど、データセットが一箇所で共有または評価できない場合、いくつかの異なるアプローチがある。
この設定では、ラベルにはプライバシーに敏感な情報も含まれているため、グローバルなAUCを計算することも問題となる。
この問題に対処するためには$\epsilon$-differential privacyに基づくアプローチがありましたが、私たちの知る限り、正確なプライバシー保護ソリューションは導入されていません。
本稿では,2つの秘密共有値の比較,2つの秘密共有値の選択,モジュラスとディビジョンの変換,プール元のテストサンプルで得られる正確なaucの計算を行うための新しい手法であるprivacy preservation auc(ppauc)というmpcベースのフレームワークを提案する。
我々は,精度・リコール曲線の下での正確な面積の計算に ppAUC を用い,予測信頼度値間の関係においても受信特性曲線を演算する。
ppaucの正確性を証明するために,急性骨髄性白血病治療反応予測訓練モデルの評価に適用し,合成データを用いた実験によりその拡張性を評価する。
実験により, 平文領域のプールテストサンプルから得られるような, 両方の評価指標を, プライバシ保護方式で, 全く同じAUCを効率的に計算できることが確認された。
当社のソリューションは、安全な計算を実行するサーバーの少なくとも1つに対して、半正直な破損に対するセキュリティを提供します。
関連論文リスト
- Distributed, communication-efficient, and differentially private estimation of KL divergence [15.294136011320433]
分散された機密性の高いデータを管理する上で重要なタスクは、分散の変化の度合いを測定することである。
差分プライバシの下で,計算のフェデレーションモデル間でのKL分散を推定するための新しいアルゴリズムアプローチについて述べる。
論文 参考訳(メタデータ) (2024-11-25T15:20:40Z) - Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Improving Bias Correction Standards by Quantifying its Effects on Treatment Outcomes [54.18828236350544]
Propensity score matching (PSM) は、分析のために同等の人口を選択することで選択バイアスに対処する。
異なるマッチング手法は、すべての検証基準を満たす場合でも、同じタスクに対する平均処理効果(ATE)を著しく異なるものにすることができる。
この問題に対処するため,新しい指標A2Aを導入し,有効試合数を削減した。
論文 参考訳(メタデータ) (2024-07-20T12:42:24Z) - Differentially Private Multi-Site Treatment Effect Estimation [28.13660104055298]
ほとんどの患者データは別々の病院でサイロに残っており、データ駆動型医療AIシステムの設計を妨げている。
医療応用における因果推論の重要な課題である平均治療効果(ATE)を推定することを検討する。
本稿では, ATE推定値とその分散を品質指標として報告する, サイトごとの推定アルゴリズムのクラスを通してこの問題に対処する。
論文 参考訳(メタデータ) (2023-10-10T01:21:01Z) - Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III [0.7349727826230862]
フェデレートされた学習方法は、プライバシに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
オープンソースMIMIC-IIIデータセット上でのトレーニングモデルにおいて,異なるフェデレーションおよび差分プライバシー手法が与える影響の評価を行う。
論文 参考訳(メタデータ) (2023-02-08T17:27:44Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Differentially Private Estimation of Heterogeneous Causal Effects [9.355532300027727]
本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
論文 参考訳(メタデータ) (2022-02-22T17:21:18Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。