論文の概要: Privacy Preserving Recalibration under Domain Shift
- arxiv url: http://arxiv.org/abs/2008.09643v1
- Date: Fri, 21 Aug 2020 18:43:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 20:42:59.405254
- Title: Privacy Preserving Recalibration under Domain Shift
- Title(参考訳): ドメインシフト下でのプライバシー保護
- Authors: Rachel Luo, Shengjia Zhao, Jiaming Song, Jonathan Kuck, Stefano Ermon,
Silvio Savarese
- Abstract要約: 本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
- 参考スコア(独自算出の注目度): 119.21243107946555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classifiers deployed in high-stakes real-world applications must output
calibrated confidence scores, i.e. their predicted probabilities should reflect
empirical frequencies. Recalibration algorithms can greatly improve a model's
probability estimates; however, existing algorithms are not applicable in
real-world situations where the test data follows a different distribution from
the training data, and privacy preservation is paramount (e.g. protecting
patient records). We introduce a framework that abstracts out the properties of
recalibration problems under differential privacy constraints. This framework
allows us to adapt existing recalibration algorithms to satisfy differential
privacy while remaining effective for domain-shift situations. Guided by our
framework, we also design a novel recalibration algorithm, accuracy temperature
scaling, that outperforms prior work on private datasets. In an extensive
empirical study, we find that our algorithm improves calibration on
domain-shift benchmarks under the constraints of differential privacy. On the
15 highest severity perturbations of the ImageNet-C dataset, our method
achieves a median ECE of 0.029, over 2x better than the next best recalibration
method and almost 5x better than without recalibration.
- Abstract(参考訳): 高精細な実世界のアプリケーションに展開される分類器は、キャリブレーションされた信頼スコアを出力しなければならない。
リカバリレーションアルゴリズムはモデルの確率推定を大幅に改善するが、既存のアルゴリズムは、テストデータがトレーニングデータと異なる分布に従う現実の状況では適用されず、プライバシ保護が最優先である(例えば、患者記録を保護する)。
差分プライバシー制約下での校正問題の性質を抽象化する枠組みを導入する。
このフレームワークは、ドメインシフトの状況に有効でありながら、差分プライバシーを満たすために既存の校正アルゴリズムを適用することができる。
また,このフレームワークを参考に,プライベートデータセットの先行処理に匹敵する,新しいリカバリアルゴリズムである精度温度スケーリングも設計した。
広範にわたる実証研究において,本アルゴリズムは差分プライバシーの制約下でのドメインシフトベンチマークの校正を改善する。
imagenet-cデータセットの15番目の重大度摂動において、本手法は0.029の中央値のeceを達成し、次の最良の再校正法よりも2倍、再校正なしでは5倍近く良い。
関連論文リスト
- Improving Predictor Reliability with Selective Recalibration [15.319277333431318]
リカレーションは、事前訓練されたモデルで信頼性の高い信頼度を推定する最も効果的な方法の1つである。
そこで我々は,選択モデルがユーザの選択比率を下げることを学ぶテキスト選択的リカレーションを提案する。
以上の結果から,選択的再校正は幅広い選択基準と再校正基準よりも,キャリブレーション誤差が著しく低いことが示唆された。
論文 参考訳(メタデータ) (2024-10-07T18:17:31Z) - CURATE: Scaling-up Differentially Private Causal Graph Discovery [8.471466670802817]
因果グラフ発見(CGD)におけるユーザのプライバシを確保するために、差分プライバシー(DP)が採用されている。
CURATEは、適応的なプライバシー予算を持つDP-CGDフレームワークである。
CURATEは従来のDP-CGDアルゴリズムに比べてプライバシー保護の少ない高効率を実現していることを示す。
論文 参考訳(メタデータ) (2024-09-27T18:00:38Z) - Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Learning Prediction Intervals for Regression: Generalization and
Calibration [12.576284277353606]
不確実性定量のための回帰における予測間隔の生成について検討する。
我々は一般学習理論を用いて、リプシッツ連続性とVC-サブグラフクラスを含む最適性と実現可能性のトレードオフを特徴づける。
我々は既存のベンチマークと比べてテスト性能の点で、区間生成とキャリブレーションアルゴリズムの強みを実証的に示している。
論文 参考訳(メタデータ) (2021-02-26T17:55:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。