論文の概要: The Price of Tailoring the Index to Your Data: Poisoning Attacks on
Learned Index Structures
- arxiv url: http://arxiv.org/abs/2008.00297v2
- Date: Sun, 27 Feb 2022 16:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 01:18:18.795318
- Title: The Price of Tailoring the Index to Your Data: Poisoning Attacks on
Learned Index Structures
- Title(参考訳): データにインデックスをカスタマイズするコスト - 学習したインデックス構造に対する毒殺攻撃
- Authors: Evgenios M. Kornaropoulos, Silei Ren, Roberto Tamassia
- Abstract要約: 本研究は,学習指標構造に対する毒素攻撃に関する最初の研究である。
累積分布関数に基づいて学習した線形回帰モデルに対する最初の中毒攻撃を定式化する。
我々は,本手法を一般化し,学習指標構造のより先進的な2段階設計に対処する。
- 参考スコア(独自算出の注目度): 9.567119607658299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The concept of learned index structures relies on the idea that the
input-output functionality of a database index can be viewed as a prediction
task and, thus, be implemented using a machine learning model instead of
traditional algorithmic techniques. This novel angle for a decades-old problem
has inspired numerous exciting results in the intersection of machine learning
and data structures. However, the main advantage of learned index structures,
i.e., the ability to adjust to the data at hand via the underlying ML-model,
can become a disadvantage from a security perspective as it could be exploited.
In this work, we present the first study of poisoning attacks on learned
index structures. The required poisoning approach is different from all
previous works since the model under attack is trained on a cumulative
distribution function (CDF) and, thus, every injection on the training set has
a cascading impact on multiple data values. We formulate the first poisoning
attacks on linear regression models trained on the CDF, which is a basic
building block of the proposed learned index structures. We generalize our
poisoning techniques to attack a more advanced two-stage design of learned
index structures called recursive model index (RMI), which has been shown to
outperform traditional B-Trees. We evaluate our attacks on real-world and
synthetic datasets under a wide variety of parameterizations of the model and
show that the error of the RMI increases up to $300\times$ and the error of its
second-stage models increases up to $3000\times$.
- Abstract(参考訳): 学習インデックス構造の概念は、データベースインデックスの入出力機能を予測タスクと見なすことができ、従って従来のアルゴリズム技術ではなく機械学習モデルを用いて実装できるという考えに依存している。
この数十年前の問題に対する新しい角度は、機械学習とデータ構造を交わす多くのエキサイティングな結果をもたらした。
しかし、学習されたインデックス構造、すなわち基盤となるmlモデルを介して手元のデータに適応できる能力の主な利点は、悪用される可能性があるため、セキュリティの観点からは不利になる可能性がある。
本研究は,学習した索引構造に対する中毒攻撃に関する最初の研究である。
攻撃対象のモデルは累積分布関数(cdf)で訓練されるため、トレーニングセットへのすべての注入が複数のデータ値にカスケードの影響を持つため、必要な毒殺アプローチは以前のすべての作業と異なる。
提案する学習インデックス構造の基本構成要素であるcdf上で訓練された線形回帰モデルに対する最初の毒殺攻撃を定式化する。
我々は,従来のB-Treesより優れていることを示すRMI(Recursive Model Index)と呼ばれる学習指標構造を,より先進的な2段階設計の攻撃に応用する。
我々は、モデルの多種多様なパラメータ化の下で実世界および合成データセットに対する攻撃を評価し、RMIの誤差が300\times$に増加し、2段モデルの誤差が3000\times$に増加することを示す。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Distributionally robust self-supervised learning for tabular data [2.942619386779508]
エラースライスの存在下での堅牢な表現の学習は、高い濃度特徴とエラーセットの構築の複雑さのために困難である。
従来の堅牢な表現学習手法は、コンピュータビジョンにおける教師付き設定における最悪のグループパフォーマンスの改善に主に焦点をあてている。
提案手法は,Masked Language Modeling (MLM) の損失を学習したエンコーダ・デコーダモデルを用いて,頑健な潜在表現を学習する。
論文 参考訳(メタデータ) (2024-10-11T04:23:56Z) - UpLIF: An Updatable Self-Tuning Learned Index Framework [4.077820670802213]
UpLIFは、入ってくる更新に対応するようにモデルを調整した適応的な自己チューニング学習インデックスである。
また、モデル固有の特性を決定するバランスモデル調整の概念も導入する。
論文 参考訳(メタデータ) (2024-08-07T22:30:43Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Principled and Efficient Motif Finding for Structure Learning of Lifted
Graphical Models [5.317624228510748]
構造学習は、ニューロシンボリックAIと統計リレーショナル学習の分野の中心となるAIの中核的な問題である。
昇降型グラフィカルモデルにおける構造モチーフのマイニングのための第一原理的アプローチを提案する。
我々は,最先端構造学習の手法を,精度で最大6%,実行時の最大80%で上回ることを示す。
論文 参考訳(メタデータ) (2023-02-09T12:21:55Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Testing the Robustness of Learned Index Structures [15.472214703318805]
本研究は, 学習指標構造の頑健性を評価する。
敵のワークロードをシミュレートするため,線形回帰モデルに対してデータ中毒攻撃を行う。
有毒なデータセットと無毒なデータセットで評価すると,学習されたインデックス構造が最大20%の大幅な性能劣化に悩まされる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-23T18:44:54Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - RadixSpline: A Single-Pass Learned Index [84.84747738666263]
RadixSpline(RS)は、データに1回のパスで構築できる学習インデックスです。
RSは2つのパラメータしか持たないにもかかわらず、すべてのデータセットで競合的な結果を達成する。
論文 参考訳(メタデータ) (2020-04-30T01:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。