論文の概要: Backdoor attacks on DNN and GBDT -- A Case Study from the insurance domain
- arxiv url: http://arxiv.org/abs/2412.08366v1
- Date: Wed, 11 Dec 2024 13:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:41.405619
- Title: Backdoor attacks on DNN and GBDT -- A Case Study from the insurance domain
- Title(参考訳): DNNとGBDTに対するバックドアアタック-保険分野の事例から
- Authors: Robin Kühlem, Daniel Otten, Daniel Ludwig, Anselm Hudde, Alexander Rosenbaum, Andreas Mauthe,
- Abstract要約: 2つのGBDTモデルと2つのDNNは、保険状況から2つの異なるデータセットでトレーニングされる。
バックドア攻撃のために、特定のパターンを含むさまざまなサンプルが作成され、トレーニングデータに追加されました。
このタイプの攻撃は、サンプルがいくつか追加されても、非常に成功できることが示されている。
実際のシナリオでは、攻撃者はいくつかの障害に直面しなければならないが、攻撃はほとんど追加のサンプルで機能するため、このリスクを評価する必要がある。
- 参考スコア(独自算出の注目度): 37.89406056766725
- License:
- Abstract: Machine learning (ML) will likely play a large role in many processes in the future, also for insurance companies. However, ML models are at risk of being attacked and manipulated. In this work, the robustness of Gradient Boosted Decision Tree (GBDT) models and Deep Neural Networks (DNN) within an insurance context will be evaluated. Therefore, two GBDT models and two DNNs are trained on two different tabular datasets from an insurance context. Past research in this domain mainly used homogenous data and there are comparably few insights regarding heterogenous tabular data. The ML tasks performed on the datasets are claim prediction (regression) and fraud detection (binary classification). For the backdoor attacks different samples containing a specific pattern were crafted and added to the training data. It is shown, that this type of attack can be highly successful, even with a few added samples. The backdoor attacks worked well on the models trained on one dataset but poorly on the models trained on the other. In real-world scenarios the attacker will have to face several obstacles but as attacks can work with very few added samples this risk should be evaluated.
- Abstract(参考訳): 機械学習(ML)は、将来多くのプロセスにおいて大きな役割を果たすだろう。
しかし、MLモデルは攻撃され、操作されるリスクがある。
本研究は,保険状況におけるGBDTモデルとディープニューラルネットワーク(DNN)の堅牢性を評価するものである。
したがって、2つのGBDTモデルと2つのDNNは保険状況から2つの異なる表付きデータセットで訓練される。
この領域における過去の研究は、主に同種データを用いており、異種表状データに関する知見は極めて少ない。
データセットで実行されるMLタスクは、クレーム予測(回帰)と不正検出(バイナリ分類)である。
バックドア攻撃のために、特定のパターンを含むさまざまなサンプルが作成され、トレーニングデータに追加されました。
このタイプの攻撃は、サンプルがいくつか追加されても、非常に成功できることが示されている。
バックドア攻撃は、1つのデータセットでトレーニングされたモデルではうまく機能したが、もう1つのデータセットでトレーニングされたモデルでは不十分だった。
実際のシナリオでは、攻撃者はいくつかの障害に直面しなければならないが、攻撃はほとんど追加のサンプルで機能するため、このリスクを評価する必要がある。
関連論文リスト
- Susceptibility of Adversarial Attack on Medical Image Segmentation
Models [0.0]
我々は,MRIデータセット上で訓練したセグメンテーションモデルに対する敵攻撃の効果について検討した。
医療画像のセグメンテーションモデルは、実際に敵の攻撃に対して脆弱であることがわかった。
トレーニングで使用するものと異なる損失関数を用いることで,高い敵攻撃効果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-20T12:52:20Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks for Tabular Data [14.415796842972563]
本稿では,Deep Neural Networks (DNN) を用いた表型データに対するバックドア攻撃の包括的解析について述べる。
本稿では,ステルス性を維持しつつ攻撃性能に優れるインバウンド攻撃(in-bounds attack)を提案する。
以上の結果から,100%の攻撃成功率を達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-13T18:39:44Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - Backdoor Defense via Decoupling the Training Process [46.34744086706348]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では,従来のエンドツーエンドトレーニングプロセスを3段階に分割して,新たなバックドアディフェンスを提案する。
論文 参考訳(メタデータ) (2022-02-05T03:34:01Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Deep Learning Defenses Against Adversarial Examples for Dynamic Risk
Assessment [0.0]
この種のモデルへの攻撃は容易である、と繰り返し報告されている。
この作業で最も広く知られた攻撃が選択され、いくつかの防御が実施された。
得られた結果は、同様の精度を維持しながら、モデルをより堅牢にする。
論文 参考訳(メタデータ) (2020-07-02T11:01:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。