論文の概要: Robust Explanations for Private Support Vector Machines
- arxiv url: http://arxiv.org/abs/2102.03785v1
- Date: Sun, 7 Feb 2021 11:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 02:54:58.179442
- Title: Robust Explanations for Private Support Vector Machines
- Title(参考訳): プライベートサポートベクトルマシンのロバスト説明
- Authors: Rami Mochaourab and Sugandh Sinha and Stanley Greenstein and
Panagiotis Papapetrou
- Abstract要約: 機密データを扱う場合、プライバシは不可欠だが、その結果、分類精度が低下する。
このような説明のためには、正分類の既定信頼度を保証するために、SVM重みの不確実性に対して反実的説明が堅牢である必要がある。
- 参考スコア(独自算出の注目度): 6.238518976312625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider counterfactual explanations for private support vector machines
(SVM), where the privacy mechanism that publicly releases the classifier
guarantees differential privacy. While privacy preservation is essential when
dealing with sensitive data, there is a consequent degradation in the
classification accuracy due to the introduced perturbations in the classifier
weights. For such classifiers, counterfactual explanations need to be robust
against the uncertainties in the SVM weights in order to ensure, with high
confidence, that the classification of the data instance to be explained is
different than its explanation. We model the uncertainties in the SVM weights
through a random vector, and formulate the explanation problem as an
optimization problem with probabilistic constraint. Subsequently, we
characterize the problem's deterministic equivalent and study its solution. For
linear SVMs, the problem is a convex second-order cone program. For non-linear
SVMs, the problem is non-convex. Thus, we propose a sub-optimal solution that
is based on the bisection method. The results show that, contrary to non-robust
explanations, the quality of explanations from the robust solution degrades
with increasing privacy in order to guarantee a prespecified confidence level
for correct classifications.
- Abstract(参考訳): 我々は、分類器を公開するプライバシ機構が差分プライバシーを保証するプライベートサポートベクターマシン(svm)の反事実説明を検討する。
機密データを扱う場合、プライバシー保護は不可欠であるが、分類器重みに導入された摂動によって分類精度が低下する。
このような分類器では、説明すべきデータインスタンスの分類が、その説明と異なることを確実にするために、SVM重みの不確実性に対して反実的説明が堅牢である必要がある。
確率ベクトルによるSVM重みの不確実性をモデル化し、確率的制約による最適化問題として説明問題を定式化する。
続いて,問題の決定論的等価性を特徴付け,その解を考察する。
線形SVMの場合、問題は凸2次コーンプログラムである。
非線形SVMの場合、問題は非凸である。
そこで本研究ではbisection法に基づくサブ最適解を提案する。
以上の結果から,ロバストでない説明とは対照的に,ロバストなソリューションによる説明の質は,適切な分類の信頼度を保証するために,プライバシーの増大とともに低下することがわかった。
関連論文リスト
- High-Dimensional Penalized Bernstein Support Vector Machines [0.0]
SVMヒンジ損失関数の非微分性は、高次元設定において計算困難を引き起こす可能性がある。
本稿では,Pentalized BernSVMの解を求めるための2つの効率的なアルゴリズムを提案する。
我々の境界は高い確率を持ち、位数 $sqrtslog(p)/n$ を達成する。
論文 参考訳(メタデータ) (2023-03-16T03:48:29Z) - Distributed Learning with Curious and Adversarial Machines [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
驚いたことに、このトレードオフのコストは、古典的なプライバシーとユーティリティのトレードオフのコストに比べれば限界がある。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Counterfactual Explanations for Support Vector Machine Models [1.933681537640272]
モデル解釈可能性を高めることを目的として, 反実的説明を見つける方法を示す。
また,保護機能を用いて法科学生が司法試験に合格するかどうかを予測するための支援ベクトルマシンモデルを構築した。
論文 参考訳(メタデータ) (2022-12-14T17:13:22Z) - Robust Counterfactual Explanations for Random Forests [76.84947521482631]
本研究では,アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係について検討する。
既存の手法が驚くほど低いロバスト性を与えることを示す: 単純な反事実の妥当性は、ほとんどのデータセットで50%以下である。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Robust Classification via Support Vector Machines [1.7520660701924717]
データ不確実性下での2つの堅牢な分類器を提案する。
1つ目はSP-SVM(Single Perturbation SVM)と呼ばれ、データの1つの特徴に対して制御された摂動を許容することで構成的な方法を提供する。
第2の方法は Extreme Empirical Loss SVM (EEL-SVM) と呼ばれ、新しい経験的損失推定、すなわち Extreme Empirical Loss (EEL) に基づいている。
論文 参考訳(メタデータ) (2021-04-27T20:20:12Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Fully Bayesian Analysis of the Relevance Vector Machine Classification
for Imbalanced Data [0.0]
本稿では、RVM分類に対するジェネリック・ベイズ的アプローチを提案する。
提案アルゴリズムは,従来のRVM分類アルゴリズムの非収束推定値と比較し,関心量の収束推定値を求める。
RVM分類のための階層的ハイパープライア構造を持つ完全ベイズ的手法を提案し、特に不均衡なデータ問題において、分類性能を改善する。
論文 参考訳(メタデータ) (2020-07-26T14:53:36Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。