論文の概要: Abstract Gradient Training: A Unified Certification Framework for Data Poisoning, Unlearning, and Differential Privacy
- arxiv url: http://arxiv.org/abs/2511.09400v1
- Date: Thu, 13 Nov 2025 01:52:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.553238
- Title: Abstract Gradient Training: A Unified Certification Framework for Data Poisoning, Unlearning, and Differential Privacy
- Title(参考訳): 抽象グラディエントトレーニング: データポジショニング、アンラーニング、差分プライバシーのための統一認定フレームワーク
- Authors: Philip Sosnin, Matthew Wicker, Josh Collyer, Calvin Tsay,
- Abstract要約: この研究は、与えられたモデルの堅牢性を証明し、データ摂動をトレーニングするためのトレーニング手順である抽象グラディエントトレーニング(AGT)を導入している。
AGTは、一階最適化手法を用いて訓練されたモデルの振る舞いを分析するための正式なアプローチを提供する。
- 参考スコア(独自算出の注目度): 7.246481649624287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The impact of inference-time data perturbation (e.g., adversarial attacks) has been extensively studied in machine learning, leading to well-established certification techniques for adversarial robustness. In contrast, certifying models against training data perturbations remains a relatively under-explored area. These perturbations can arise in three critical contexts: adversarial data poisoning, where an adversary manipulates training samples to corrupt model performance; machine unlearning, which requires certifying model behavior under the removal of specific training data; and differential privacy, where guarantees must be given with respect to substituting individual data points. This work introduces Abstract Gradient Training (AGT), a unified framework for certifying robustness of a given model and training procedure to training data perturbations, including bounded perturbations, the removal of data points, and the addition of new samples. By bounding the reachable set of parameters, i.e., establishing provable parameter-space bounds, AGT provides a formal approach to analyzing the behavior of models trained via first-order optimization methods.
- Abstract(参考訳): 推論時データ摂動(例えば、敵対的攻撃)の影響は機械学習において広範囲に研究され、敵的堅牢性のための確立された認証技術に繋がった。
対照的に、トレーニングデータ摂動に対する認証モデルは、まだ探索されていない領域である。
これらの摂動は、3つの重要な文脈で起こりうる: 敵対的なデータ中毒、敵がトレーニングサンプルを操作してモデルパフォーマンスを損なうこと、特定のトレーニングデータの除去の下でモデルの振る舞いを認証する必要がある機械学習、個々のデータポイントの置換に関して保証を与える差分プライバシー。
本研究では,有界摂動,データポイントの除去,新たなサンプルの追加など,データ摂動をトレーニングするための,与えられたモデルの堅牢性を証明する統一的なフレームワークである抽象勾配トレーニング(AGT)を紹介する。
パラメータの到達可能な集合、すなわち証明可能なパラメータ空間境界を確立することによって、AGTは一階最適化法によって訓練されたモデルの振る舞いを分析するための公式なアプローチを提供する。
関連論文リスト
- Variational Diffusion Unlearning: A Variational Inference Framework for Unlearning in Diffusion Models under Data Constraints [9.885531514020437]
本研究では,事前学習した拡散モデルから望ましくない特徴を含む出力の発生を防止できる機械学習手法を提案する。
本手法は, 可塑性インデューサと安定正則化器の2項からなる損失関数の最小化を目的とした, 変分推論フレームワークに着想を得たものである。
本手法の有効性は,授業未学習と特徴未学習の両方に対する総合的な実験を通じて検証する。
論文 参考訳(メタデータ) (2025-10-05T06:39:30Z) - MIBP-Cert: Certified Training against Data Perturbations with Mixed-Integer Bilinear Programs [50.41998220099097]
トレーニング中のデータエラー、汚職、中毒攻撃は、現代のAIシステムの信頼性に大きな脅威をもたらす。
混合整数双線形プログラミング(MIBP)に基づく新しい認証手法MIBP-Certを紹介する。
摂動データや操作データを通じて到達可能なパラメータの集合を計算することで、可能なすべての結果を予測することができ、堅牢性を保証することができる。
論文 参考訳(メタデータ) (2024-12-13T14:56:39Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Distilled Datamodel with Reverse Gradient Matching [74.75248610868685]
オフライントレーニングとオンライン評価段階を含む,データ影響評価のための効率的なフレームワークを提案する。
提案手法は, 直接再学習法と比較して, プロセスの大幅な高速化を図りながら, 同等のモデル行動評価を実現する。
論文 参考訳(メタデータ) (2024-04-22T09:16:14Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - How Training Data Impacts Performance in Learning-based Control [67.7875109298865]
本稿では,トレーニングデータの密度と制御性能の関係を考察する。
データセットの品質尺度を定式化し、$rho$-gap と呼ぶ。
フィードバック線形化制御法に$rho$-gapを適用する方法を示す。
論文 参考訳(メタデータ) (2020-05-25T12:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。