論文の概要: Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation
- arxiv url: http://arxiv.org/abs/2505.18323v1
- Date: Fri, 23 May 2025 19:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.340686
- Title: Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation
- Title(参考訳): バッチ内データステアリングとモデル推論操作のためのアーキテクチャバックドア
- Authors: Nicolas Küchler, Ivan Petrov, Conrad Grobler, Ilia Shumailov,
- Abstract要約: 建築用バックドアの最近の進歩を基盤とした,新しいバックドアのクラスを紹介する。
このような攻撃は実現可能であるだけでなく、危険なほど効果的であることを示す。
本稿では,この新たな攻撃ベクトルに対する正式な保証を提供する決定論的緩和戦略を提案する。
- 参考スコア(独自算出の注目度): 9.961238260113916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For nearly a decade the academic community has investigated backdoors in neural networks, primarily focusing on classification tasks where adversaries manipulate the model prediction. While demonstrably malicious, the immediate real-world impact of such prediction-altering attacks has remained unclear. In this paper we introduce a novel and significantly more potent class of backdoors that builds upon recent advancements in architectural backdoors. We demonstrate how these backdoors can be specifically engineered to exploit batched inference, a common technique for hardware utilization, enabling large-scale user data manipulation and theft. By targeting the batching process, these architectural backdoors facilitate information leakage between concurrent user requests and allow attackers to fully control model responses directed at other users within the same batch. In other words, an attacker who can change the model architecture can set and steal model inputs and outputs of other users within the same batch. We show that such attacks are not only feasible but also alarmingly effective, can be readily injected into prevalent model architectures, and represent a truly malicious threat to user privacy and system integrity. Critically, to counteract this new class of vulnerabilities, we propose a deterministic mitigation strategy that provides formal guarantees against this new attack vector, unlike prior work that relied on Large Language Models to find the backdoors. Our mitigation strategy employs a novel Information Flow Control mechanism that analyzes the model graph and proves non-interference between different user inputs within the same batch. Using our mitigation strategy we perform a large scale analysis of models hosted through Hugging Face and find over 200 models that introduce (unintended) information leakage between batch entries due to the use of dynamic quantization.
- Abstract(参考訳): 研究者コミュニティは10年近くにわたり、ニューラルネットワークのバックドアを調査し、主に敵がモデル予測を操作する分類タスクに注目してきた。
明らかに悪意があるものの、こうした予測予測攻撃による即時的な実世界の影響はいまだに不明である。
本稿では,最近の建築用バックドアの進歩を基盤とした,新しい,より強力なバックドアのクラスを紹介する。
ハードウェア利用の一般的なテクニックであるバッチ推論を利用して、大規模なユーザデータ操作と盗難を可能にするために、これらのバックドアを具体的に設計する方法を実証する。
バッチ処理をターゲットとすることで、これらのアーキテクチャバックドアは、同時ユーザ要求間の情報漏洩を促進し、攻撃者が同じバッチ内で他のユーザに対して指示されたモデル応答を完全に制御できるようにする。
言い換えれば、モデルアーキテクチャを変更できる攻撃者は、同じバッチ内でモデルの入力と出力をセットして盗むことができる。
このような攻撃は実現可能であるだけでなく、非常に効果的であるだけでなく、一般的なモデルアーキテクチャに容易に注入でき、ユーザのプライバシとシステム整合性に対する真に悪意のある脅威を表している。
批判的なことに、我々は、この新たな攻撃ベクトルに対して正式な保証を提供する決定論的緩和戦略を提案する。
我々の緩和戦略は、モデルグラフを分析し、同一バッチ内で異なるユーザ入力間の非干渉を証明する新しい情報フロー制御機構を採用している。
緩和戦略を用いて、Hugging Faceを通じてホストされたモデルの大規模解析を行い、動的量子化によるバッチエントリ間の(意図しない)情報リークを導入する200以上のモデルを見つけます。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Hiding Backdoors within Event Sequence Data via Poisoning Attacks [2.532893215351299]
コンピュータビジョンでは、毒という敵の攻撃を行うことで、推論中に出力を形作ることができる。
顧客の金融取引のシーケンスでは、バックドアの挿入は困難である。
クリーンなモデルを、バックドアの可用性を認識して、この知識を活用する有毒なものに置き換える。
論文 参考訳(メタデータ) (2023-08-20T08:27:42Z) - Architectural Backdoors in Neural Networks [27.315196801989032]
モデルアーキテクチャの内部に隠れる新しい種類のバックドアアタックを導入します。
これらのバックドアの実装は簡単で、例えばバックドアモデルアーキテクチャ用のオープンソースコードを公開している。
私たちは、モデルアーキテクチャのバックドアが真の脅威であり、他のアプローチとは異なり、ゼロから完全な再トレーニングに耐えられることを実証しています。
論文 参考訳(メタデータ) (2022-06-15T22:44:03Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。