論文の概要: Poisoning MorphNet for Clean-Label Backdoor Attack to Point Clouds
- arxiv url: http://arxiv.org/abs/2105.04839v1
- Date: Tue, 11 May 2021 07:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:57:57.364214
- Title: Poisoning MorphNet for Clean-Label Backdoor Attack to Point Clouds
- Title(参考訳): 点状雲に対するクリーンラベルバックドア攻撃のためのモルフネット
- Authors: Guiyu Tian, Wenhao Jiang, Wei Liu, Yadong Mu
- Abstract要約: 本稿では,ポイントクラウド上の最初のバックドア攻撃手法である Poisoning MorphNet について述べる。
バックドアアタックは、トレーニング段階でトリガーをモデルに挿入することを目的としており、トリガーがサンプルに存在しない限り、被害者モデルはクリーンデータ上で正常に動作します。
- 参考スコア(独自算出の注目度): 37.77952251676744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Poisoning MorphNet, the first backdoor attack method on
point clouds. Conventional adversarial attack takes place in the inference
stage, often fooling a model by perturbing samples. In contrast, backdoor
attack aims to implant triggers into a model during the training stage, such
that the victim model acts normally on the clean data unless a trigger is
present in a sample. This work follows a typical setting of clean-label
backdoor attack, where a few poisoned samples (with their content tampered yet
labels unchanged) are injected into the training set. The unique contributions
of MorphNet are two-fold. First, it is key to ensure the implanted triggers
both visually imperceptible to humans and lead to high attack success rate on
the point clouds. To this end, MorphNet jointly optimizes two objectives for
sample-adaptive poisoning: a reconstruction loss that preserves the visual
similarity between benign / poisoned point clouds, and a classification loss
that enforces a modern recognition model of point clouds tends to mis-classify
the poisoned sample to a pre-specified target category. This implicitly
conducts spectral separation over point clouds, hiding sample-adaptive triggers
in fine-grained high-frequency details. Secondly, existing backdoor attack
methods are mainly designed for image data, easily defended by some point cloud
specific operations (such as denoising). We propose a third loss in MorphNet
for suppressing isolated points, leading to improved resistance to
denoising-based defense. Comprehensive evaluations are conducted on ModelNet40
and ShapeNetcorev2. Our proposed Poisoning MorphNet outstrips all previous
methods with clear margins.
- Abstract(参考訳): 本稿では,ポイントクラウド上の最初のバックドア攻撃手法であるPoisoning MorphNetを提案する。
従来の敵攻撃は推論段階で行われ、しばしばサンプルを摂動することによってモデルを騙す。
対照的に、バックドアアタックはトレーニング段階でモデルにトリガーを埋め込むことを目的としており、サンプルにトリガーがない限り、被害者モデルが通常クリーンなデータに作用するようにしている。
この研究は、いくつかの有毒なサンプル(内容が変わらずラベルが変更されていない)をトレーニングセットに注入するクリーンラベルバックドア攻撃の典型的な設定に従っている。
MorphNetのユニークな貢献は2つある。
第一に、移植されたトリガーが人間に視覚的に知覚できないことと、ポイント・クラウドでの攻撃の成功率を高めることが鍵となる。
この目的のためにmorphnetは、サンプル適応型中毒の2つの目的を共同で最適化している: 良性/有毒点雲間の視覚的類似性を保存する再構築損失と、ポイントクラウドの現代的な認識モデルを実行する分類損失は、有毒なサンプルを予め特定されたターゲットカテゴリに誤分類する傾向がある。
これは暗黙的に点雲上のスペクトル分離を行い、サンプル適応トリガーを細かな高周波詳細に隠す。
第二に、既存のバックドアアタックメソッドは主に画像データ用に設計されており、ある時点のクラウド固有の操作によって容易に防御される。
我々は,孤立点を抑制するためのモルヒネの3度目の損失を提案し,消音ベースの防御に対する抵抗性が向上した。
ModelNet40とShapeNetcorev2の総合評価を行った。
提案した Poisoning MorphNet は,従来の手法をすべてクリアマージンで切り離している。
関連論文リスト
- An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - PointCA: Evaluating the Robustness of 3D Point Cloud Completion Models
Against Adversarial Examples [63.84378007819262]
本稿では,3次元クラウド完了モデルに対する最初の逆攻撃であるPointCAを提案する。
ポイントCAは、元のものと高い類似性を維持する逆点雲を生成することができる。
その結果,PointCAは77.9%から16.7%に低下し,その構造は0.01以下であることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:15:41Z) - Imperceptible and Robust Backdoor Attack in 3D Point Cloud [62.992167285646275]
本稿では、この課題に対処するために、新しい非受容的で堅牢なバックドアアタック(IRBA)を提案する。
我々は、重み付き局所変換(WLT)と呼ばれる非線形局所変換を用いて、ユニークな変換を持つ有毒試料を構築する。
3つのベンチマークデータセットと4つのモデルによる実験により、IRBAは前処理技術でもほとんどの場合80%以上のASRを達成することが示された。
論文 参考訳(メタデータ) (2022-08-17T03:53:10Z) - Neural network fragile watermarking with no model performance
degradation [28.68910526223425]
モデル性能の劣化を伴わない新しいニューラルネットワーク脆弱な透かしを提案する。
実験の結果,提案手法はモデル性能劣化を伴わずに,悪質な微調整を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2022-08-16T07:55:20Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。