論文の概要: Multi-Class Support Vector Machine with Differential Privacy
- arxiv url: http://arxiv.org/abs/2510.04027v1
- Date: Sun, 05 Oct 2025 04:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.407655
- Title: Multi-Class Support Vector Machine with Differential Privacy
- Title(参考訳): 差分プライバシーを有するマルチクラスサポートベクトルマシン
- Authors: Jinseong Park, Yujin Choi, Jaewook Lee,
- Abstract要約: 差分プライバシーは、プライバシを保存する機械学習モデルを構築するための主要なフレームワークの1つである。
標準の1-versus-rest (OvR) と 1-versus-rest (OvO) のアプローチが各データサンプルを繰り返しクエリするので、マルチクラスSVMへのDPの適用は不十分である。
そこで本研究では,全単体SVMにおけるDPを確保するために,重みと勾配の摂動法を併用した新しい微分プライベート・マルチクラスSVM(PMSVM)を提案する。
- 参考スコア(独自算出の注目度): 12.305474267080966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing need to safeguard data privacy in machine learning models, differential privacy (DP) is one of the major frameworks to build privacy-preserving models. Support Vector Machines (SVMs) are widely used traditional machine learning models due to their robust margin guarantees and strong empirical performance in binary classification. However, applying DP to multi-class SVMs is inadequate, as the standard one-versus-rest (OvR) and one-versus-one (OvO) approaches repeatedly query each data sample when building multiple binary classifiers, thus consuming the privacy budget proportionally to the number of classes. To overcome this limitation, we explore all-in-one SVM approaches for DP, which access each data sample only once to construct multi-class SVM boundaries with margin maximization properties. We propose a novel differentially Private Multi-class SVM (PMSVM) with weight and gradient perturbation methods, providing rigorous sensitivity and convergence analyses to ensure DP in all-in-one SVMs. Empirical results demonstrate that our approach surpasses existing DP-SVM methods in multi-class scenarios.
- Abstract(参考訳): 機械学習モデルにおけるデータプライバシの保護の必要性が高まる中、差分プライバシ(DP)はプライバシ保護モデルを構築する主要なフレームワークの1つである。
サポートベクタマシン(SVM)は、堅牢なマージン保証とバイナリ分類における強力な経験的性能のため、伝統的な機械学習モデルとして広く使用されている。
しかし、標準の1-versus-rest (OvR) と1-versus-rest (OvO) は、複数のバイナリ分類器を構築する際に、各データサンプルに繰り返し問い合わせることによって、クラス数に比例してプライバシー予算を消費するので、マルチクラスSVMにDPを適用することは不十分である。
この制限を克服するために、DPのオールインワンSVMアプローチを検討し、各データサンプルに一度だけアクセスし、マージン最大化特性を持つマルチクラスSVM境界を構築する。
重みと勾配摂動法を併用した新しい微分プライベート・マルチクラスSVM (PMSVM) を提案し, 厳密な感度と収束解析を行い, オールインワンSVMにおけるDPを確保する。
実験結果から,本手法が既存のDP-SVM法を超越していることが示された。
関連論文リスト
- Hierarchical Identity Learning for Unsupervised Visible-Infrared Person Re-Identification [81.3063589622217]
教師なし可視赤外線人物再識別(USVI-ReID)は、ラベルのないクロスモーダルな人物データセットからモダリティ不変の画像特徴を学習することを目的としている。
論文 参考訳(メタデータ) (2025-09-15T05:10:43Z) - Robust Multi-View Learning via Representation Fusion of Sample-Level Attention and Alignment of Simulated Perturbation [61.64052577026623]
実世界のマルチビューデータセットは、しばしば不均一で不完全である。
本稿では,表現融合とアライメントを同時に行う新しいロバストMVL法(RML)を提案する。
我々のRMLは自己教師型であり、正規化として下流のタスクにも適用できます。
論文 参考訳(メタデータ) (2025-03-06T07:01:08Z) - Multiview learning with twin parametric margin SVM [0.0]
マルチビュー学習(MVL)は、相互補完するために多様な視点の利点を活用する。
マルチビュー・ツインパラメトリック・マージン支援ベクトルマシン(MvTPMSVM)を提案する。
MvTPMSVMは、両クラスに対応するパラメトリック・マージン・ハイパープレーンを構築し、異方性雑音構造の影響を規制し、管理することを目的としている。
論文 参考訳(メタデータ) (2024-08-04T10:16:11Z) - Multi-class Support Vector Machine with Maximizing Minimum Margin [60.06805919852749]
Support Vector Machine (SVM) は、パターン認識タスクに広く応用されている機械学習技術である。
本稿では,クラス損失のペア化と最小マージンの最大化を両立するマルチクラスSVMの新たな手法を提案する。
実験により,提案手法の有効性と優位性を示す。
論文 参考訳(メタデータ) (2023-12-11T18:09:55Z) - A Robust Twin Parametric Margin Support Vector Machine for Multiclass Classification [0.0]
本稿では,特徴不確実性を考慮したマルチクラス分類タスクに対処する新しいTPMSVMモデルを提案する。
データ摂動に対処するため、各トレーニング観測の周囲に有界・北不確実性セットを構築し、決定論的モデルのロバストな特徴を導出する。
実世界のデータセットに対する頑健なマルチクラスTPMSVM手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-06-09T19:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。