論文の概要: Privacy-Preserving Model and Preprocessing Verification for Machine Learning
- arxiv url: http://arxiv.org/abs/2501.08236v1
- Date: Tue, 14 Jan 2025 16:21:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:28:40.626575
- Title: Privacy-Preserving Model and Preprocessing Verification for Machine Learning
- Title(参考訳): 機械学習のためのプライバシ保護モデルと事前処理検証
- Authors: Wenbiao Li, Anisa Halimi, Xiaoqian Jiang, Jaideep Vaidya, Erman Ayday,
- Abstract要約: 本稿では、機密データに基づいてトレーニングされたモデルに着目し、機械学習モデルのプライバシ保護検証のためのフレームワークを提案する。
バイナリ分類は、適切な前処理ステップを適用してターゲットモデルが正しくトレーニングされたかどうかを検証し、特定の前処理エラーを特定するマルチクラス分類という2つの重要なタスクに対処する。
その結果、検証精度はデータセットやノイズレベルによって異なるが、このフレームワークは、事前処理エラー、強力なプライバシ保証、機密データの保護のための実践的適用性を効果的に検出する。
- 参考スコア(独自算出の注目度): 9.4033740844828
- License:
- Abstract: This paper presents a framework for privacy-preserving verification of machine learning models, focusing on models trained on sensitive data. Integrating Local Differential Privacy (LDP) with model explanations from LIME and SHAP, our framework enables robust verification without compromising individual privacy. It addresses two key tasks: binary classification, to verify if a target model was trained correctly by applying the appropriate preprocessing steps, and multi-class classification, to identify specific preprocessing errors. Evaluations on three real-world datasets-Diabetes, Adult, and Student Record-demonstrate that while the ML-based approach is particularly effective in binary tasks, the threshold-based method performs comparably in multi-class tasks. Results indicate that although verification accuracy varies across datasets and noise levels, the framework provides effective detection of preprocessing errors, strong privacy guarantees, and practical applicability for safeguarding sensitive data.
- Abstract(参考訳): 本稿では、機密データに基づいてトレーニングされたモデルに着目し、機械学習モデルのプライバシ保護検証のためのフレームワークを提案する。
LIME と SHAP のモデル説明とローカル微分プライバシー (LDP) を統合することで,個人のプライバシーを損なうことなく,堅牢な検証を可能にする。
バイナリ分類は、適切な前処理ステップを適用してターゲットモデルが正しくトレーニングされたかどうかを検証し、特定の前処理エラーを特定するマルチクラス分類という2つの重要なタスクに対処する。
Diabetes, adult, and Student Record-demonstrateの3つの実世界のデータセットに対する評価では、MLベースのアプローチは特にバイナリタスクでは有効であるが、しきい値ベースの手法はマルチクラスタスクでは相容れない。
その結果、検証精度はデータセットやノイズレベルによって異なるが、このフレームワークは、事前処理エラー、強力なプライバシ保証、機密データの保護のための実践的適用性を効果的に検出する。
関連論文リスト
- Early Stopping Against Label Noise Without Validation Data [54.27621957395026]
所望のモデルを選択するのに検証データを必要としないラベルウェーブと呼ばれる新しい早期停止手法を提案する。
各種設定におけるラベルウェーブ法の有効性と,ノイズラベルを用いた学習における既存手法の性能向上を両立させる能力について述べる。
論文 参考訳(メタデータ) (2025-02-11T13:40:15Z) - Towards Establishing Guaranteed Error for Learned Database Operations [5.14420675727793]
そこで本研究では,鍵データベース操作において,所望の精度を達成するために必要なモデルサイズについて,最初の下限を提示する。
私たちの結果は、データベース操作の実行における平均値と最悪のケースエラーに必要なモデルサイズに結びついています。
私たちの確立した保証は、学習したモデルを現実世界のシステムに広く導入し、統合するための道を開くものです。
論文 参考訳(メタデータ) (2024-11-09T17:53:18Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。