論文の概要: Testing the Robustness of Learned Index Structures
- arxiv url: http://arxiv.org/abs/2207.11575v1
- Date: Sat, 23 Jul 2022 18:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:57:59.942381
- Title: Testing the Robustness of Learned Index Structures
- Title(参考訳): 学習インデックス構造のロバスト性をテストする
- Authors: Matthias Bachfischer, Renata Borovica-Gajic, Benjamin I. P. Rubinstein
- Abstract要約: 本研究は, 学習指標構造の頑健性を評価する。
敵のワークロードをシミュレートするため,線形回帰モデルに対してデータ中毒攻撃を行う。
有毒なデータセットと無毒なデータセットで評価すると,学習されたインデックス構造が最大20%の大幅な性能劣化に悩まされる可能性が示唆された。
- 参考スコア(独自算出の注目度): 15.472214703318805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While early empirical evidence has supported the case for learned index
structures as having favourable average-case performance, little is known about
their worst-case performance. By contrast, classical structures are known to
achieve optimal worst-case behaviour. This work evaluates the robustness of
learned index structures in the presence of adversarial workloads. To simulate
adversarial workloads, we carry out a data poisoning attack on linear
regression models that manipulates the cumulative distribution function (CDF)
on which the learned index model is trained. The attack deteriorates the fit of
the underlying ML model by injecting a set of poisoning keys into the training
dataset, which leads to an increase in the prediction error of the model and
thus deteriorates the overall performance of the learned index structure. We
assess the performance of various regression methods and the learned index
implementations ALEX and PGM-Index. We show that learned index structures can
suffer from a significant performance deterioration of up to 20% when evaluated
on poisoned vs. non-poisoned datasets.
- Abstract(参考訳): 初期の実証的な証拠は、学習されたインデックス構造が平均ケースのパフォーマンスに有利であると支持しているが、最悪の場合のパフォーマンスについてはほとんど知られていない。
対照的に、古典的な構造は最適な最悪の動作を達成することが知られている。
本研究は,学習された索引構造のロバスト性を評価する。
逆行ワークロードをシミュレートするために,学習インデックスモデルを訓練した累積分布関数(cdf)を操作する線形回帰モデルに対して,データ中毒攻撃を行う。
この攻撃は、トレーニングデータセットに一組の毒鍵を注入することにより、基礎となるMLモデルの適合性を低下させ、モデルの予測誤差が増大し、学習されたインデックス構造の全体的な性能が低下する。
各種回帰手法と学習指標実装 ALEX と PGM-Index の性能評価を行った。
有毒データと非汚染データセットで評価すると,学習したインデックス構造は最大20%の性能低下に苦しむことが判明した。
関連論文リスト
- Exploiting the Data Gap: Utilizing Non-ignorable Missingness to Manipulate Model Learning [13.797822374912773]
敵対的ミススティングネス(AM)攻撃は、悪意ある無知の欠陥メカニズムによって動機づけられる。
本研究は,AM攻撃の文脈における連帯学習に焦点を当てる。
両レベルの最適化として,対向的欠落メカニズムの学習を定式化する。
論文 参考訳(メタデータ) (2024-09-06T17:10:28Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - A Statistical Learning Take on the Concordance Index for Survival
Analysis [0.29005223064604074]
C-index Fisher-Consistencyの結果と、生存分析においてよく使われるコスト関数に対する過剰なリスク境界を提供する。
また、モデル仮定が作成されず、C-インデックスと整合性を示す新しいオフ・ザ・シェルフ法を提示する一般事例についても検討する。
論文 参考訳(メタデータ) (2023-02-23T14:33:54Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - The Concordance Index decomposition: A measure for a deeper
understanding of survival prediction models [3.186455928607442]
Concordance Index (C-index) は、予測モデルの性能を評価するためにサバイバル分析で一般的に用いられる指標である。
そこで本研究では,C-インデックスを2種類の重み付き調和平均値に分解する手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T23:50:47Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - The Price of Tailoring the Index to Your Data: Poisoning Attacks on
Learned Index Structures [9.567119607658299]
本研究は,学習指標構造に対する毒素攻撃に関する最初の研究である。
累積分布関数に基づいて学習した線形回帰モデルに対する最初の中毒攻撃を定式化する。
我々は,本手法を一般化し,学習指標構造のより先進的な2段階設計に対処する。
論文 参考訳(メタデータ) (2020-08-01T17:12:04Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。