論文の概要: BADTV: Unveiling Backdoor Threats in Third-Party Task Vectors
- arxiv url: http://arxiv.org/abs/2501.02373v1
- Date: Sat, 04 Jan 2025 20:18:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:07:33.800256
- Title: BADTV: Unveiling Backdoor Threats in Third-Party Task Vectors
- Title(参考訳): BADTV:サードパーティのタスクベクトルでバックドアの脅威を暴露
- Authors: Chia-Yi Hsu, Yu-Lin Tsai, Yu Zhe, Yan-Lun Chen, Chih-Hsun Lin, Chia-Mu Yu, Yang Zhang, Chun-Ying Huang, Jun Sakuma,
- Abstract要約: バックドア攻撃に対するテレビの感受性を特定し評価し、悪意あるアクターがいかにしてテレビを利用してモデルの整合性を損なうかを実証する。
BadTVは、タスク学習、忘れ、アナロジー操作で効果的に動作するように設計された、新しいバックドア攻撃である。
本研究は, 現実の応用において, テレビをセキュアにするための堅牢な防御機構の必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 17.723197686401086
- License:
- Abstract: Task arithmetic in large-scale pre-trained models enables flexible adaptation to diverse downstream tasks without extensive re-training. By leveraging task vectors (TVs), users can perform modular updates to pre-trained models through simple arithmetic operations like addition and subtraction. However, this flexibility introduces new security vulnerabilities. In this paper, we identify and evaluate the susceptibility of TVs to backdoor attacks, demonstrating how malicious actors can exploit TVs to compromise model integrity. By developing composite backdoors and eliminating redudant clean tasks, we introduce BadTV, a novel backdoor attack specifically designed to remain effective under task learning, forgetting, and analogies operations. Our extensive experiments reveal that BadTV achieves near-perfect attack success rates across various scenarios, significantly impacting the security of models using task arithmetic. We also explore existing defenses, showing that current methods fail to detect or mitigate BadTV. Our findings highlight the need for robust defense mechanisms to secure TVs in real-world applications, especially as TV services become more popular in machine-learning ecosystems.
- Abstract(参考訳): 大規模事前学習モデルにおけるタスク算術は、広範囲な再学習なしに様々な下流タスクへの柔軟な適応を可能にする。
タスクベクトル(TV)を活用することで、ユーザーは加算や減算といった単純な算術演算を通じて事前訓練されたモデルのモジュラー更新を行うことができる。
しかし、この柔軟性は新たなセキュリティ脆弱性をもたらす。
本稿では,テレビのバックドア攻撃に対する感受性を検証し,悪質なアクターがいかにしてテレビを悪用してモデルの整合性を損なうかを実証する。
複合型バックドアの開発と冗長なクリーンタスクの排除により,タスク学習,忘れ,アナロジー操作において有効であるように設計された,新しいバックドア攻撃であるBadTVを導入する。
我々は,BadTVが様々なシナリオでほぼ完璧な攻撃成功率を達成し,タスク算術を用いたモデルのセキュリティに大きな影響を及ぼすことを明らかにした。
また、既存の防衛策についても検討し、現在の方法がBadTVの検出や緩和に失敗していることを示す。
我々の研究は、特にテレビサービスが機械学習のエコシステムで普及するにつれて、現実世界のアプリケーションでテレビをセキュアにするための堅牢な防御機構の必要性を強調した。
関連論文リスト
- Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Adversarial training for tabular data with attack propagation [1.9826772682131455]
トレーニングループ内の2つの空間間で攻撃が伝播する新しい形態の対角訓練を提案する。
本手法は中程度の攻撃で約30%の性能低下を防止でき、非常に攻撃的な攻撃では必須であることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:12:46Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - Towards Practical Deployment-Stage Backdoor Attack on Deep Neural
Networks [5.231607386266116]
ディープラーニングモデルに対するデプロイステージバックドア攻撃の現実的な脅威について検討する。
バックドアインジェクションのための最初のグレーボックスと物理的に実現可能な重み攻撃アルゴリズムを提案する。
本研究は,攻撃アルゴリズムの有効性と実用性を示すものである。
論文 参考訳(メタデータ) (2021-11-25T08:25:27Z) - WaNet -- Imperceptible Warping-based Backdoor Attack [20.289889150949836]
サードパーティーのモデルは、通常の状況でうまく機能するようにトレーニング中に毒を盛るが、トリガーパターンが現れると悪質に振る舞う。
本稿では,サードパーティモデルに対してワーピングベースのトリガーを用いた攻撃手法を提案する。
提案したバックドアは、人間の検査試験における従来の方法よりも広いマージンで優れており、そのステルス性を証明している。
論文 参考訳(メタデータ) (2021-02-20T15:25:36Z) - Targeted Forgetting and False Memory Formation in Continual Learners
through Adversarial Backdoor Attacks [2.830541450812474]
破滅的な忘れ物を避けるために,一般的な連続学習アルゴリズムであるElastic Weight Consolidation (EWC)の脆弱性について検討する。
知的敵は、EWCの防御を回避でき、訓練中に少量の誤報をモデルに導入することで、段階的かつ故意に忘れることを引き起こす。
MNISTデータセットの置換型と分割型の両方に"バックドア"攻撃サンプルを注入することで、モデルの制御を前提とする敵の能力を実証する。
論文 参考訳(メタデータ) (2020-02-17T18:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。