論文の概要: ppAURORA: Privacy Preserving Area Under Receiver Operating
Characteristic and Precision-Recall Curves
- arxiv url: http://arxiv.org/abs/2102.08788v3
- Date: Thu, 15 Jun 2023 16:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-18 14:57:06.181309
- Title: ppAURORA: Privacy Preserving Area Under Receiver Operating
Characteristic and Precision-Recall Curves
- Title(参考訳): ppaurora: 受信者の動作特性と精度リコール曲線に基づくプライバシー保護領域
- Authors: Ali Burak \"Unal, Nico Pfeifer, Mete Akg\"un
- Abstract要約: AUCは、異なる機械学習モデルの品質を比較するためのパフォーマンス指標である。
ラベルにはプライバシーに敏感な情報も含まれているため、グローバルAUCを計算することも問題になる可能性がある。
我々は、複数のソースから個別にソートされたリストをプライベートにマージし、正確なAUCを計算するMPCベースのソリューションpAURORAを提案する。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing an AUC as a performance measure to compare the quality of different
machine learning models is one of the final steps of many research projects.
Many of these methods are trained on privacy-sensitive data and there are
several different approaches like $\epsilon$-differential privacy, federated
machine learning and cryptography if the datasets cannot be shared or used
jointly at one place for training and/or testing. In this setting, it can also
be a problem to compute the global AUC, since the labels might also contain
privacy-sensitive information. There have been approaches based on
$\epsilon$-differential privacy to address this problem, but to the best of our
knowledge, no exact privacy preserving solution has been introduced. In this
paper, we propose an MPC-based solution, called ppAURORA, with private merging
of individually sorted lists from multiple sources to compute the exact AUC as
one could obtain on the pooled original test samples. With ppAURORA, the
computation of the exact area under precision-recall and receiver operating
characteristic curves is possible even when ties between prediction confidence
values exist. We use ppAURORA to evaluate two different models predicting acute
myeloid leukemia therapy response and heart disease, respectively. We also
assess its scalability via synthetic data experiments. All these experiments
show that we efficiently and privately compute the exact same AUC with both
evaluation metrics as one can obtain on the pooled test samples in plaintext
according to the semi-honest adversary setting.
- Abstract(参考訳): さまざまな機械学習モデルの品質を比較するためのパフォーマンス指標としてのAUCの計算は多くの研究プロジェクトの最終段階の1つである。
これらのメソッドの多くはプライバシに敏感なデータに基づいてトレーニングされており、データセットが共有できない場合や、トレーニングや/またはテストのために一箇所で一緒に使用できない場合、$\epsilon$-differential privacy、federated machine learning、cryptgraphyのようないくつかの異なるアプローチがある。
この設定では、ラベルにはプライバシーに敏感な情報も含まれているため、グローバルなAUCを計算することも問題となる。
この問題に対処するためには$\epsilon$-differential privacyに基づくアプローチがありましたが、私たちの知る限り、正確なプライバシー保護ソリューションは導入されていません。
本稿では,複数のソースから個別にソートしたリストを個別にマージして,プールした元のテストサンプルで得られる正確な auc を計算するmpc ベースのソリューション ppaurora を提案する。
ppauroraでは、予測信頼度値の相関が存在する場合でも、精度リコールと受信者の特性曲線の正確な領域の計算が可能である。
pAURORAを用いて急性骨髄性白血病治療反応と心疾患の予測モデルについて検討した。
また,合成データ実験によるスケーラビリティの評価を行った。
これらの実験は, 両評価指標を用いて, ほぼ同一のAUCを効率よく, プライベートに計算し, 半真正逆の設定に従って平文でプールした試験サンプルから得られることを示す。
関連論文リスト
- Distributed, communication-efficient, and differentially private estimation of KL divergence [15.294136011320433]
分散された機密性の高いデータを管理する上で重要なタスクは、分散の変化の度合いを測定することである。
差分プライバシの下で,計算のフェデレーションモデル間でのKL分散を推定するための新しいアルゴリズムアプローチについて述べる。
論文 参考訳(メタデータ) (2024-11-25T15:20:40Z) - Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Improving Bias Correction Standards by Quantifying its Effects on Treatment Outcomes [54.18828236350544]
Propensity score matching (PSM) は、分析のために同等の人口を選択することで選択バイアスに対処する。
異なるマッチング手法は、すべての検証基準を満たす場合でも、同じタスクに対する平均処理効果(ATE)を著しく異なるものにすることができる。
この問題に対処するため,新しい指標A2Aを導入し,有効試合数を削減した。
論文 参考訳(メタデータ) (2024-07-20T12:42:24Z) - Differentially Private Multi-Site Treatment Effect Estimation [28.13660104055298]
ほとんどの患者データは別々の病院でサイロに残っており、データ駆動型医療AIシステムの設計を妨げている。
医療応用における因果推論の重要な課題である平均治療効果(ATE)を推定することを検討する。
本稿では, ATE推定値とその分散を品質指標として報告する, サイトごとの推定アルゴリズムのクラスを通してこの問題に対処する。
論文 参考訳(メタデータ) (2023-10-10T01:21:01Z) - Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III [0.7349727826230862]
フェデレートされた学習方法は、プライバシに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
オープンソースMIMIC-IIIデータセット上でのトレーニングモデルにおいて,異なるフェデレーションおよび差分プライバシー手法が与える影響の評価を行う。
論文 参考訳(メタデータ) (2023-02-08T17:27:44Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Differentially Private Estimation of Heterogeneous Causal Effects [9.355532300027727]
本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
論文 参考訳(メタデータ) (2022-02-22T17:21:18Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。