論文の概要: ppAUC: Privacy Preserving Area Under the Curve with Secure 3-Party
Computation
- arxiv url: http://arxiv.org/abs/2102.08788v1
- Date: Wed, 17 Feb 2021 14:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 00:45:27.387326
- Title: ppAUC: Privacy Preserving Area Under the Curve with Secure 3-Party
Computation
- Title(参考訳): ppAUC: セキュアな3部計算による曲線下のプライバシー保護エリア
- Authors: Ali Burak \"Unal, Nico Pfeifer, Mete Akg\"un
- Abstract要約: プライバシー保護AUC(ppAUC)と呼ばれるMPCベースのフレームワークを提案する。
pAUCを用いて高精度リコール曲線と受信特性曲線の正確な面積の計算を行う。
当社のソリューションは、安全な計算を実行するサーバーの少なくとも1つに対して、半正直な破損に対するセキュリティを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing an AUC as a performance measure to compare the quality of different
machine learning models is one of the final steps of many research projects.
Many of these methods are trained on privacy-sensitive data and there are
several different approaches like $\epsilon$-differential privacy, federated
machine learning and methods based on cryptographic approaches if the datasets
cannot be shared or evaluated jointly at one place. In this setting, it can
also be a problem to compute the global AUC, since the labels might also
contain privacy-sensitive information. There have been approaches based on
$\epsilon$-differential privacy to deal with this problem, but to the best of
our knowledge, no exact privacy preserving solution has been introduced. In
this paper, we propose an MPC-based framework, called privacy preserving AUC
(ppAUC), with novel methods for comparing two secret-shared values, selecting
between two secret-shared values, converting the modulus and performing
division to compute the exact AUC as one could obtain on the pooled original
test samples. We employ ppAUC in the computation of the exact area under
precision-recall curve and receiver operating characteristic curve even for
ties between prediction confidence values. To prove the correctness of ppAUC,
we apply it to evaluate a model trained to predict acute myeloid leukemia
therapy response and we also assess its scalability via experiments on
synthetic data. The experiments show that we efficiently compute exactly the
same AUC with both evaluation metrics in a privacy preserving manner as one can
obtain on the pooled test samples in the plaintext domain. Our solution
provides security against semi-honest corruption of at most one of the servers
performing the secure computation.
- Abstract(参考訳): さまざまな機械学習モデルの品質を比較するためのパフォーマンス指標としてのAUCの計算は多くの研究プロジェクトの最終段階の1つである。
これらのメソッドの多くはプライバシに敏感なデータに基づいてトレーニングされており、$\epsilon$-differential privacy、federated machine learning、暗号化アプローチに基づくメソッドなど、データセットが一箇所で共有または評価できない場合、いくつかの異なるアプローチがある。
この設定では、ラベルにはプライバシーに敏感な情報も含まれているため、グローバルなAUCを計算することも問題となる。
この問題に対処するためには$\epsilon$-differential privacyに基づくアプローチがありましたが、私たちの知る限り、正確なプライバシー保護ソリューションは導入されていません。
本稿では,2つの秘密共有値の比較,2つの秘密共有値の選択,モジュラスとディビジョンの変換,プール元のテストサンプルで得られる正確なaucの計算を行うための新しい手法であるprivacy preservation auc(ppauc)というmpcベースのフレームワークを提案する。
我々は,精度・リコール曲線の下での正確な面積の計算に ppAUC を用い,予測信頼度値間の関係においても受信特性曲線を演算する。
ppaucの正確性を証明するために,急性骨髄性白血病治療反応予測訓練モデルの評価に適用し,合成データを用いた実験によりその拡張性を評価する。
実験により, 平文領域のプールテストサンプルから得られるような, 両方の評価指標を, プライバシ保護方式で, 全く同じAUCを効率的に計算できることが確認された。
当社のソリューションは、安全な計算を実行するサーバーの少なくとも1つに対して、半正直な破損に対するセキュリティを提供します。
関連論文リスト
- Differentially Private Multi-Site Treatment Effect Estimation [28.13660104055298]
ほとんどの患者データは別々の病院でサイロに残っており、データ駆動型医療AIシステムの設計を妨げている。
医療応用における因果推論の重要な課題である平均治療効果(ATE)を推定することを検討する。
本稿では, ATE推定値とその分散を品質指標として報告する, サイトごとの推定アルゴリズムのクラスを通してこの問題に対処する。
論文 参考訳(メタデータ) (2023-10-10T01:21:01Z) - Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III [0.7349727826230862]
フェデレートされた学習方法は、プライバシに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
オープンソースMIMIC-IIIデータセット上でのトレーニングモデルにおいて,異なるフェデレーションおよび差分プライバシー手法が与える影響の評価を行う。
論文 参考訳(メタデータ) (2023-02-08T17:27:44Z) - Individual Privacy Accounting for Differentially Private Stochastic
Gradient Descent [73.2635854205537]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Differentially Private Estimation of Heterogeneous Causal Effects [9.355532300027727]
本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
論文 参考訳(メタデータ) (2022-02-22T17:21:18Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Secure Metric Learning via Differential Pairwise Privacy [36.946123614592054]
本稿では,距離メトリック学習において,攻撃者に対してペアワイズ情報を漏洩させる方法について,初めて検討する。
我々は、標準微分プライバシーの定義を一般化し、安全な計量学習のための微分ペアプライバシー(DPP)を開発する。
論文 参考訳(メタデータ) (2020-03-30T12:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。