論文の概要: PACE: Poisoning Attacks on Learned Cardinality Estimation
- arxiv url: http://arxiv.org/abs/2409.15990v1
- Date: Tue, 24 Sep 2024 11:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 07:42:12.608133
- Title: PACE: Poisoning Attacks on Learned Cardinality Estimation
- Title(参考訳): PACE: 学習した心臓病の推定に対する攻撃
- Authors: Jintao Zhang, Chao Zhang, Guoliang Li, Chengliang Chai,
- Abstract要約: ブラックボックス環境下での学習CEに対する毒殺の新たな問題について検討した。
PACEは学習したCEモデルの精度を178倍削減することを示した。
- 参考スコア(独自算出の注目度): 19.513759745995333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cardinality estimation (CE) plays a crucial role in database optimizer. We have witnessed the emergence of numerous learned CE models recently which can outperform traditional methods such as histograms and samplings. However, learned models also bring many security risks. For example, a query-driven learned CE model learns a query-to-cardinality mapping based on the historical workload. Such a learned model could be attacked by poisoning queries, which are crafted by malicious attackers and woven into the historical workload, leading to performance degradation of CE. In this paper, we explore the potential security risks in learned CE and study a new problem of poisoning attacks on learned CE in a black-box setting. Experiments show that PACE reduces the accuracy of the learned CE models by 178 times, leading to a 10 times decrease in the end-to-end performance of the target database.
- Abstract(参考訳): カーディナリティ推定(CE)は、データベースオプティマイザにおいて重要な役割を果たす。
我々は最近、ヒストグラムやサンプリングなどの従来の手法よりも優れた多くの学習CEモデルの出現を目撃した。
しかし、学習モデルには多くのセキュリティリスクも伴う。
例えば、クエリ駆動学習CEモデルは、過去のワークロードに基づいて、クエリから心臓へのマッピングを学習する。
このような学習モデルは、悪意のある攻撃者によって作成され、歴史的なワークロードに織り込まれたクエリによって攻撃され、CEのパフォーマンスが低下する可能性がある。
本稿では,学習CEにおける潜在的なセキュリティリスクについて検討し,学習CEに対するブラックボックス環境での毒殺の新たな問題について検討する。
実験の結果, PACEは学習したCEモデルの精度を178倍に削減し, 対象データベースのエンドツーエンド性能を10倍に低下させることがわかった。
関連論文リスト
- CAT: Concept-level backdoor ATtacks for Concept Bottleneck Models [8.236058439213473]
概念ボトルネックモデル(CBM)は、高レベルな意味情報を活用することで、解釈可能性を改善するための重要なアプローチとして登場した。
CBMはセキュリティ上の脅威、特にモデル動作を隠蔽的に操作できるバックドア攻撃の影響を受けやすい。
CAT(Concept-level Backdoor ATtacks)は,CBM内の概念表現を利用して,トレーニング中にトリガを埋め込む手法である。
強化された攻撃パターンであるCAT+は、最も効果的でステルス的な概念トリガーを体系的に選択する相関関数を組み込んでいる。
論文 参考訳(メタデータ) (2024-10-07T08:14:17Z) - Robust Counterfactual Explanations in Machine Learning: A Survey [17.429631079094186]
対実的説明(CE)は、機械学習モデルに影響された被験者にアルゴリズムによる会話を提供するのに理想的に適していると提唱されている。
最近の研究は、CEを得るための最先端の手法の堅牢性に関連する深刻な問題を明らかにしている。
堅牢性の欠如はCEの妥当性を損なう可能性があるため、このリスクを軽減する技術は順調である。
論文 参考訳(メタデータ) (2024-02-02T21:56:58Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Adversarial Attacks on Knowledge Graph Embeddings via Instance
Attribution Methods [8.793721044482613]
リンク予測のための知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃について検討する。
これらの攻撃は、テスト時にモデル失敗を引き起こすために、トレーニング時に敵の追加や削除を行う。
本稿では,2つの実体のうちの1つを3つに置き換えて,逆加算を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T19:38:48Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - The Price of Tailoring the Index to Your Data: Poisoning Attacks on
Learned Index Structures [9.567119607658299]
本研究は,学習指標構造に対する毒素攻撃に関する最初の研究である。
累積分布関数に基づいて学習した線形回帰モデルに対する最初の中毒攻撃を定式化する。
我々は,本手法を一般化し,学習指標構造のより先進的な2段階設計に対処する。
論文 参考訳(メタデータ) (2020-08-01T17:12:04Z) - Poisoning Attacks on Algorithmic Fairness [14.213638219685656]
本稿では,アルゴリズムの公正性に対する攻撃を害する最適化フレームワークを提案する。
我々は,データ中の異なるグループ間の分類格差の導入を目的とした,勾配に基づく中毒攻撃を開発した。
我々の発見は、異なるシナリオにおけるアルゴリズムフェアネスをターゲットとした、全く新しい敵攻撃セットの定義への道を開いたと信じている。
論文 参考訳(メタデータ) (2020-04-15T08:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。