論文の概要: BarkBeetle: Stealing Decision Tree Models with Fault Injection
- arxiv url: http://arxiv.org/abs/2507.06986v1
- Date: Wed, 09 Jul 2025 16:08:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.662859
- Title: BarkBeetle: Stealing Decision Tree Models with Fault Injection
- Title(参考訳): BarkBeetle: 故障注入による決定木モデルのステアリング
- Authors: Qifan Wang, Jonas Sander, Minmin Jiang, Thomas Eisenbarth, David Oswald,
- Abstract要約: 本稿では,DTモデルの内部構造情報を抽出するためにフォールトインジェクションを利用する新しい攻撃法であるBarkBeetleを提案する。
我々の概念実証実装は、BarkBeetleがクエリを著しく少なくし、以前のアプローチに比べて構造的な情報を復元することを示した。
BarkBeetleが一般的なDTモデルをターゲットにしているため、ツリーベースの幅広いアプリケーションに適用性についても詳細に議論する。
- 参考スコア(独自算出の注目度): 20.594841454603955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models, particularly decision trees (DTs), are widely adopted across various domains due to their interpretability and efficiency. However, as ML models become increasingly integrated into privacy-sensitive applications, concerns about their confidentiality have grown, particularly in light of emerging threats such as model extraction and fault injection attacks. Assessing the vulnerability of DTs under such attacks is therefore important. In this work, we present BarkBeetle, a novel attack that leverages fault injection to extract internal structural information of DT models. BarkBeetle employs a bottom-up recovery strategy that uses targeted fault injection at specific nodes to efficiently infer feature splits and threshold values. Our proof-of-concept implementation demonstrates that BarkBeetle requires significantly fewer queries and recovers more structural information compared to prior approaches, when evaluated on DTs trained with public UCI datasets. To validate its practical feasibility, we implement BarkBeetle on a Raspberry Pi RP2350 board and perform fault injections using the Faultier voltage glitching tool. As BarkBeetle targets general DT models, we also provide an in-depth discussion on its applicability to a broader range of tree-based applications, including data stream classification, DT variants, and cryptography schemes.
- Abstract(参考訳): 機械学習モデル、特に決定木(DT)は、解釈可能性と効率性のために、様々な領域で広く採用されている。
しかし、MLモデルがますますプライバシに敏感なアプリケーションに統合されるにつれて、特にモデル抽出やフォールトインジェクション攻撃といった新たな脅威を考慮して、その機密性に対する懸念が高まっている。
このような攻撃の下でDTの脆弱性を評価することは重要である。
本稿では,DTモデルの内部構造情報を抽出するためにフォールトインジェクションを利用した新しい攻撃法であるBarkBeetleを提案する。
BarkBeetleでは、特定のノードでターゲットの障害注入を使用して、機能分割としきい値の効率的な推測を行うボトムアップリカバリ戦略を採用している。
我々の概念実証実装は、パブリックなUCIデータセットでトレーニングされたDTで評価した場合、BarkBeetleがクエリを著しく少なくし、以前のアプローチよりも構造的な情報を復元することを示した。
実用性を検証するため,Raspberry Pi RP2350基板上にBarkBeetleを実装し,Faultier電圧グリッチツールを用いて故障注入を行う。
BarkBeetleが一般的なDTモデルをターゲットにしているため、データストリーム分類、DT変種、暗号スキームなど、広範囲のツリーベースアプリケーションに適用性についても詳細に議論する。
関連論文リスト
- BadGD: A unified data-centric framework to identify gradient descent vulnerabilities [10.996626204702189]
BadGDは、敵の操作を理解し緩和するための新しい標準を設定している。
この研究は、このようなデータ中心の攻撃によって引き起こされる深刻な脅威を強調し、機械学習における堅牢な防御の必要性を強調している。
論文 参考訳(メタデータ) (2024-05-24T23:39:45Z) - IBD-PSC: Input-level Backdoor Detection via Parameter-oriented Scaling Consistency [20.61046457594186]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では、悪意のあるテスト画像のフィルタリングを行うための、シンプルで効果的な入力レベルのバックドア検出(IBD-PSCと呼ばれる)を提案する。
論文 参考訳(メタデータ) (2024-05-16T03:19:52Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では,DBPプロセスの本質性がロバスト性を駆動する主要な要因であることを示す。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Few-Shot Bearing Fault Diagnosis Based on Model-Agnostic Meta-Learning [3.8015092217142223]
モデルに依存しないメタラーニング(MAML)に基づく断層診断のための数発の学習フレームワークを提案する。
ケーススタディでは、提案したフレームワークは、シームズネットワークベースのベンチマーク研究よりも25%高い精度で全体の精度を達成している。
論文 参考訳(メタデータ) (2020-07-25T04:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。