論文の概要: Revocable Backdoor for Deep Model Trading
- arxiv url: http://arxiv.org/abs/2408.00255v1
- Date: Thu, 1 Aug 2024 03:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 21:55:12.785943
- Title: Revocable Backdoor for Deep Model Trading
- Title(参考訳): 深部モデル取引のための取り消し可能なバックドア
- Authors: Yiran Xu, Nan Zhong, Zhenxing Qian, Xinpeng Zhang,
- Abstract要約: 本稿では,新しい回避可能なバックドアとディープモデルトレーディングシナリオを提案する。
パフォーマンスを損なうことなく、ディープモデルを妥協することを目指しています。
毒性のあるモデルを再訓練することなく容易に解毒できる。
- 参考スコア(独自算出の注目度): 33.87684071716026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep models are being applied in numerous fields and have become a new important digital product. Meanwhile, previous studies have shown that deep models are vulnerable to backdoor attacks, in which compromised models return attacker-desired results when a trigger appears. Backdoor attacks severely break the trust-worthiness of deep models. In this paper, we turn this weakness of deep models into a strength, and propose a novel revocable backdoor and deep model trading scenario. Specifically, we aim to compromise deep models without degrading their performance, meanwhile, we can easily detoxify poisoned models without re-training the models. We design specific mask matrices to manage the internal feature maps of the models. These mask matrices can be used to deactivate the backdoors. The revocable backdoor can be adopted in the deep model trading scenario. Sellers train models with revocable backdoors as a trial version. Buyers pay a deposit to sellers and obtain a trial version of the deep model. If buyers are satisfied with the trial version, they pay a final payment to sellers and sellers send mask matrices to buyers to withdraw revocable backdoors. We demonstrate the feasibility and robustness of our revocable backdoor by various datasets and network architectures.
- Abstract(参考訳): ディープモデルは多くの分野に適用され、新しい重要なデジタル製品になりつつある。
一方、以前の研究では、深いモデルがバックドア攻撃に弱いことが示されており、侵入されたモデルがトリガーが現れるとアタッカーに望まれる結果を返す。
バックドア攻撃は、ディープモデルの信頼性を著しく損なう。
本稿では、この深層モデルの弱さを強みにし、新しい無効化可能なバックドアと深層モデル取引シナリオを提案する。
具体的には、その性能を低下させることなく、より深いモデルを妥協することを目的としており、一方、有害なモデルを再トレーニングすることなく、容易に解毒することができる。
モデルの内部特徴マップを管理するために,特定のマスク行列を設計する。
これらのマスクマトリックスは、バックドアを不活性化するために使用することができる。
取り消し可能なバックドアは、ディープモデルトレーディングシナリオで採用することができる。
販売業者は、トライアル版として、取り消し可能なバックドアを備えたモデルを訓練する。
買い手は売り手に預金を支払い、ディープモデルの試用版を取得する。
購入者が試用版に満足すると、売り手は最終的な支払いを支払い、売り手はマスクマトリックスを購入者に送って取り消し可能なバックドアを回収する。
さまざまなデータセットやネットワークアーキテクチャによる、取り消し可能なバックドアの実現可能性と堅牢性を示します。
関連論文リスト
- Expose Before You Defend: Unifying and Enhancing Backdoor Defenses via Exposed Models [68.40324627475499]
本稿では,Expose Before You Defendという新しい2段階防衛フレームワークを紹介する。
EBYDは既存のバックドア防御手法を総合防衛システムに統合し、性能を向上する。
2つの視覚データセットと4つの言語データセットにまたがる10のイメージアタックと6つのテキストアタックに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-10-25T09:36:04Z) - Injecting Undetectable Backdoors in Obfuscated Neural Networks and Language Models [39.34881774508323]
外部の専門家企業が開発したMLモデルにおいて,検出不能なバックドアによる脅威について検討する。
我々は,難読性難読化の概念のセキュリティ性を満足する,難読化ニューラルネットワークにバックドアを植える戦略を開発した。
バックドアを植える手法は, 難読化モデルの重量や構造がアクセス可能である場合でも, バックドアの存在が検出できないことを保証している。
論文 参考訳(メタデータ) (2024-06-09T06:26:21Z) - TrojFM: Resource-efficient Backdoor Attacks against Very Large Foundation Models [69.37990698561299]
TrojFMは、非常に大きな基礎モデルに適した、新しいバックドア攻撃である。
提案手法では,モデルパラメータのごく一部のみを微調整することでバックドアを注入する。
広範に使われている大規模GPTモデルに対して,TrojFMが効果的なバックドアアタックを起動できることを実証する。
論文 参考訳(メタデータ) (2024-05-27T03:10:57Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Mudjacking: Patching Backdoor Vulnerabilities in Foundation Models [55.038561766001514]
ファンデーションモデルはバックドア攻撃に対して脆弱であり、バックドアのファンデーションモデルはAIエコシステムの単一障害点である。
バックドアを削除するために基礎モデルをパッチする最初の方法であるMudjackingを提案する。
この結果から,Mudjackingはその実用性を維持しつつ,基礎モデルからバックドアを除去できることが示唆された。
論文 参考訳(メタデータ) (2024-02-22T21:31:43Z) - BaDExpert: Extracting Backdoor Functionality for Accurate Backdoor Input
Detection [42.021282816470794]
我々は,Deep Neural Networks(DNN)に対するバックドア攻撃に対する新しい防御法を提案する。
私たちの防衛は、モデルの生成方法とは独立して機能する開発後防衛のカテゴリに分類されます。
モデル推論におけるバックドア入力をフィルタリングする高精度なバックドア入力検出装置の実現可能性を示す。
論文 参考訳(メタデータ) (2023-08-23T21:47:06Z) - Fine-Tuning Is All You Need to Mitigate Backdoor Attacks [10.88508085229675]
ファインチューニングは、機械学習モデルからバックドアを効果的に取り除き、高モデルユーティリティを維持できることを示す。
私たちは、バックドアの削除前後の他の攻撃に対するモデル脆弱性の変化を測定するために、バックドアの続編という新しい用語を作成しました。
論文 参考訳(メタデータ) (2022-12-18T11:30:59Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Stealthy Backdoors as Compression Artifacts [12.501709528606607]
モデル圧縮が敵にステルスバックドアを注入する機会を与える可能性について検討する。
これはモデルプルーニングとモデル量子化という,2つの一般的なモデル圧縮手法で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-04-30T17:35:18Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。