論文の概要: Robust Explanations for Private Support Vector Machines
- arxiv url: http://arxiv.org/abs/2102.03785v1
- Date: Sun, 7 Feb 2021 11:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 02:54:58.179442
- Title: Robust Explanations for Private Support Vector Machines
- Title(参考訳): プライベートサポートベクトルマシンのロバスト説明
- Authors: Rami Mochaourab and Sugandh Sinha and Stanley Greenstein and
Panagiotis Papapetrou
- Abstract要約: 機密データを扱う場合、プライバシは不可欠だが、その結果、分類精度が低下する。
このような説明のためには、正分類の既定信頼度を保証するために、SVM重みの不確実性に対して反実的説明が堅牢である必要がある。
- 参考スコア(独自算出の注目度): 6.238518976312625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider counterfactual explanations for private support vector machines
(SVM), where the privacy mechanism that publicly releases the classifier
guarantees differential privacy. While privacy preservation is essential when
dealing with sensitive data, there is a consequent degradation in the
classification accuracy due to the introduced perturbations in the classifier
weights. For such classifiers, counterfactual explanations need to be robust
against the uncertainties in the SVM weights in order to ensure, with high
confidence, that the classification of the data instance to be explained is
different than its explanation. We model the uncertainties in the SVM weights
through a random vector, and formulate the explanation problem as an
optimization problem with probabilistic constraint. Subsequently, we
characterize the problem's deterministic equivalent and study its solution. For
linear SVMs, the problem is a convex second-order cone program. For non-linear
SVMs, the problem is non-convex. Thus, we propose a sub-optimal solution that
is based on the bisection method. The results show that, contrary to non-robust
explanations, the quality of explanations from the robust solution degrades
with increasing privacy in order to guarantee a prespecified confidence level
for correct classifications.
- Abstract(参考訳): 我々は、分類器を公開するプライバシ機構が差分プライバシーを保証するプライベートサポートベクターマシン(svm)の反事実説明を検討する。
機密データを扱う場合、プライバシー保護は不可欠であるが、分類器重みに導入された摂動によって分類精度が低下する。
このような分類器では、説明すべきデータインスタンスの分類が、その説明と異なることを確実にするために、SVM重みの不確実性に対して反実的説明が堅牢である必要がある。
確率ベクトルによるSVM重みの不確実性をモデル化し、確率的制約による最適化問題として説明問題を定式化する。
続いて,問題の決定論的等価性を特徴付け,その解を考察する。
線形SVMの場合、問題は凸2次コーンプログラムである。
非線形SVMの場合、問題は非凸である。
そこで本研究ではbisection法に基づくサブ最適解を提案する。
以上の結果から,ロバストでない説明とは対照的に,ロバストなソリューションによる説明の質は,適切な分類の信頼度を保証するために,プライバシーの増大とともに低下することがわかった。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Cost-sensitive probabilistic predictions for support vector machines [1.743685428161914]
サポートベクターマシン(SVM)は広く使われており、最もよく検討され使用されている機械学習モデルの一つである。
本稿では,SVMの確率的出力を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:00:17Z) - Evaluating robustness of support vector machines with the Lagrangian
dual approach [6.868150350359336]
非線形カーネルを用いたベクトルマシン(SVM)の検証性能を向上させる手法を提案する。
我々は,MNISTおよびFashion-MNISTデータセット上で線形および非線形カーネルを持つSVMの対角的ロバスト性を評価する。
実験結果から,テストセット上で得られた証明可能なロバスト性の割合は,最先端技術よりも良好であることが示唆された。
論文 参考訳(メタデータ) (2023-06-05T07:15:54Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Counterfactual Explanations for Support Vector Machine Models [1.933681537640272]
モデル解釈可能性を高めることを目的として, 反実的説明を見つける方法を示す。
また,保護機能を用いて法科学生が司法試験に合格するかどうかを予測するための支援ベクトルマシンモデルを構築した。
論文 参考訳(メタデータ) (2022-12-14T17:13:22Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Robust Classification via Support Vector Machines [1.7520660701924717]
データ不確実性下での2つの堅牢な分類器を提案する。
1つ目はSP-SVM(Single Perturbation SVM)と呼ばれ、データの1つの特徴に対して制御された摂動を許容することで構成的な方法を提供する。
第2の方法は Extreme Empirical Loss SVM (EEL-SVM) と呼ばれ、新しい経験的損失推定、すなわち Extreme Empirical Loss (EEL) に基づいている。
論文 参考訳(メタデータ) (2021-04-27T20:20:12Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。