論文の概要: Mathematical Foundations of Poisoning Attacks on Linear Regression over Cumulative Distribution Functions
- arxiv url: http://arxiv.org/abs/2603.00537v1
- Date: Sat, 28 Feb 2026 08:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.248632
- Title: Mathematical Foundations of Poisoning Attacks on Linear Regression over Cumulative Distribution Functions
- Title(参考訳): 累積分布関数に対する線形回帰攻撃の数学的基礎
- Authors: Atsuki Sato, Martin Aumüller, Yusuke Matsui,
- Abstract要約: 学習インデックスは、機械学習モデルを用いて累積分布関数(CDF)を近似することにより、高速な検索を可能にするインデックスデータ構造のクラスである。
近年の研究では、学習した指標が、トレーニングデータに少量の毒鍵を注入することで、モデルの精度が著しく低下し、インデックスのパフォーマンスが低下する可能性があることが示されている。
本稿では,CDF 上の線形回帰モデルをターゲットにした毒殺攻撃の厳密な理論的解析を行う。
- 参考スコア(独自算出の注目度): 19.804639010699997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned indexes are a class of index data structures that enable fast search by approximating the cumulative distribution function (CDF) using machine learning models (Kraska et al., SIGMOD'18). However, recent studies have shown that learned indexes are vulnerable to poisoning attacks, where injecting a small number of poison keys into the training data can significantly degrade model accuracy and reduce index performance (Kornaropoulos et al., SIGMOD'22). In this work, we provide a rigorous theoretical analysis of poisoning attacks targeting linear regression models over CDFs, one of the most basic regression models and a core component in many learned indexes. Our main contributions are as follows: (i) We present a theoretical proof characterizing the optimal single-point poisoning attack and show that the existing method yields the optimal attack. (ii) We show that in multi-point attacks, the existing greedy approach is not always optimal, and we rigorously derive the key properties that an optimal attack should satisfy. (iii) We propose a method to compute an upper bound of the multi-point poisoning attack's impact and empirically demonstrate that the loss under the greedy approach is often close to this bound. Our study deepens the theoretical understanding of attack strategies against linear regression models on CDFs and provides a foundation for the theoretical evaluation of attacks and defenses on learned indexes.
- Abstract(参考訳): 学習インデックスは、機械学習モデル(Kraska et al , SIGMOD'18)を用いて累積分布関数(CDF)を近似することにより、高速検索を可能にするインデックスデータ構造のクラスである。
しかし、最近の研究では、学習指標が毒性攻撃に弱いことが示されており、トレーニングデータに少量の毒鍵を注入すると、モデルの精度が著しく低下し、インデックスのパフォーマンスが低下する(Kornaropoulos et al , SIGMOD'22)。
本研究では,CDFの線形回帰モデル,最も基本的な回帰モデル,多くの学習指標のコアコンポーネントを対象とする中毒攻撃の厳密な理論的解析を行う。
主な貢献は以下の通りである。
i) 最適な単一点毒攻撃を特徴付ける理論的証明を提示し, 既存の方法が最適攻撃をもたらすことを示す。
(II) マルチポイント攻撃においては, 既存の欲求的アプローチが必ずしも最適であるとは限らないことを示し, 最適な攻撃が満たすべき重要な特性を厳格に導き出す。
そこで,本研究では,多点毒素攻撃による影響の上限を計算する手法を提案し,その限界に近い場合が多いことを実証的に示す。
本研究は,CDFの線形回帰モデルに対する攻撃戦略の理論的理解を深め,学習指標に対する攻撃と防御の理論的評価の基礎を提供する。
関連論文リスト
- The Tail Tells All: Estimating Model-Level Membership Inference Vulnerability Without Reference Models [8.453525669833853]
本稿では,モデルレベルの脆弱性である低FPRにおけるTPRを,参照モデルを必要としないメンバシップ推論攻撃に推定するための新しいアプローチを提案する。
本手法は,RMIAなどの低コスト(参照モデル)攻撃と,他の分布差の測定値よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-10-22T17:03:55Z) - Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - Generating Poisoning Attacks against Ridge Regression Models with Categorical Features [0.0]
機械学習(ML)モデルは、大規模なデータセットから情報を抽出する非常に強力なツールになっている。
MLモデルは外部からの攻撃に弱いため、期待するタスクを過小評価したり、逸脱させたりすることができる。
本稿では,区分的特徴を明示する数値的カテゴリー的特徴の両方を含むリッジ回帰モデルに対する強力な攻撃を生成することを提案する。
論文 参考訳(メタデータ) (2025-01-13T12:40:52Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach [42.81632484264218]
機械学習モデルでは、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
本研究の目的は、ランダムな森林を標的のない無作為な毒殺攻撃から保護する、新しいハッシュベースのアンサンブルアプローチを実現することである。
論文 参考訳(メタデータ) (2022-09-28T11:41:38Z) - Testing the Robustness of Learned Index Structures [15.472214703318805]
本研究は, 学習指標構造の頑健性を評価する。
敵のワークロードをシミュレートするため,線形回帰モデルに対してデータ中毒攻撃を行う。
有毒なデータセットと無毒なデータセットで評価すると,学習されたインデックス構造が最大20%の大幅な性能劣化に悩まされる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-23T18:44:54Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - The Price of Tailoring the Index to Your Data: Poisoning Attacks on
Learned Index Structures [9.567119607658299]
本研究は,学習指標構造に対する毒素攻撃に関する最初の研究である。
累積分布関数に基づいて学習した線形回帰モデルに対する最初の中毒攻撃を定式化する。
我々は,本手法を一般化し,学習指標構造のより先進的な2段階設計に対処する。
論文 参考訳(メタデータ) (2020-08-01T17:12:04Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。