論文の概要: Bias Busters: Robustifying DL-based Lithographic Hotspot Detectors
Against Backdooring Attacks
- arxiv url: http://arxiv.org/abs/2004.12492v1
- Date: Sun, 26 Apr 2020 22:30:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:18:31.612140
- Title: Bias Busters: Robustifying DL-based Lithographic Hotspot Detectors
Against Backdooring Attacks
- Title(参考訳): バイアスバスター:バックドア攻撃に対するdlベースのリソグラフィホットスポット検出器の堅牢化
- Authors: Kang Liu, Benjamin Tan, Gaurav Rajavendra Reddy, Siddharth Garg,
Yiorgos Makris, Ramesh Karri
- Abstract要約: 悪意のある物理的デザイナーのごく一部は、訓練期間中にDLベースのホットスポット検出器を密かに「バックドア」することができる。
本研究では,このようなバックドア攻撃に対する強力な防御手段として,新たなトレーニングデータ強化戦略を提案する。
その結果,攻撃成功率は84%から0%に大幅に低下することがわかった。
- 参考スコア(独自算出の注目度): 22.0696892745458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) offers potential improvements throughout the CAD
tool-flow, one promising application being lithographic hotspot detection.
However, DL techniques have been shown to be especially vulnerable to inference
and training time adversarial attacks. Recent work has demonstrated that a
small fraction of malicious physical designers can stealthily "backdoor" a
DL-based hotspot detector during its training phase such that it accurately
classifies regular layout clips but predicts hotspots containing a specially
crafted trigger shape as non-hotspots. We propose a novel training data
augmentation strategy as a powerful defense against such backdooring attacks.
The defense works by eliminating the intentional biases introduced in the
training data but does not require knowledge of which training samples are
poisoned or the nature of the backdoor trigger. Our results show that the
defense can drastically reduce the attack success rate from 84% to ~0%.
- Abstract(参考訳): ディープラーニング(DL)はCADツールフロー全体の潜在的な改善を提供する。
しかし、dl技術は特に推論や訓練時間の敵意攻撃に弱いことが示されている。
近年の研究では、DLベースのホットスポット検出器をトレーニング期間中に「バックドア」して、通常のレイアウトクリップを正確に分類するが、特別なトリガー形状を非ホットスポットとして含むホットスポットを予測できることが示されている。
このようなバックドア攻撃に対する強力な防御として,新たなトレーニングデータ強化戦略を提案する。
防御は、トレーニングデータに導入された意図的なバイアスを取り除くことで機能するが、どのトレーニングサンプルが毒されたか、バックドアトリガーの性質を知る必要はない。
その結果,防御力は攻撃成功率を84%から0%に劇的に低減できることがわかった。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Exploiting Machine Unlearning for Backdoor Attacks in Deep Learning
System [4.9233610638625604]
マシンアンラーニングに基づく新しいブラックボックスバックドア攻撃を提案する。
攻撃者はまず、毒や緩和データを含む慎重に設計されたサンプルでトレーニングセットを強化し、良心のモデルを訓練する。
そして、攻撃者は、モデルの関連するデータの影響を取り除くために、未学習のサンプルに対するリクエストをポストし、徐々に隠れたバックドアを活性化する。
論文 参考訳(メタデータ) (2023-09-12T02:42:39Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Towards Understanding How Self-training Tolerates Data Backdoor
Poisoning [11.817302291033725]
バックドア攻撃を緩和するためのラベルのない追加データによる自己学習の可能性を探る。
新たな自己訓練体制は、バックドア攻撃に対する防衛に大いに役立ちます。
論文 参考訳(メタデータ) (2023-01-20T16:36:45Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。