論文の概要: NoPain: No-box Point Cloud Attack via Optimal Transport Singular Boundary
- arxiv url: http://arxiv.org/abs/2503.00063v3
- Date: Tue, 25 Mar 2025 07:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 20:13:54.950642
- Title: NoPain: No-box Point Cloud Attack via Optimal Transport Singular Boundary
- Title(参考訳): NoPain: 最適輸送特異境界によるノーボックスポイントクラウド攻撃
- Authors: Zezeng Li, Xiaoyu Du, Na Lei, Liming Chen, Weimin Wang,
- Abstract要約: 敵攻撃は、敵のサンプルに対するディープモデルの脆弱性を悪用する。
既存のポイントクラウド攻撃者は特定のモデルに合わせて調整され、ホワイトボックスまたはブラックボックスの設定の勾配に基づいた摂動を反復的に最適化する。
我々は、ポイントクラウド攻撃のためのデータ多様体の固有の特異境界を特定するために最適な輸送(OT)を利用するNoPainを紹介する。
- 参考スコア(独自算出の注目度): 13.46515999093558
- License:
- Abstract: Adversarial attacks exploit the vulnerability of deep models against adversarial samples. Existing point cloud attackers are tailored to specific models, iteratively optimizing perturbations based on gradients in either a white-box or black-box setting. Despite their promising attack performance, they often struggle to produce transferable adversarial samples due to overfitting the specific parameters of surrogate models. To overcome this issue, we shift our focus to the data distribution itself and introduce a novel approach named NoPain, which employs optimal transport (OT) to identify the inherent singular boundaries of the data manifold for cross-network point cloud attacks. Specifically, we first calculate the OT mapping from noise to the target feature space, then identify singular boundaries by locating non-differentiable positions. Finally, we sample along singular boundaries to generate adversarial point clouds. Once the singular boundaries are determined, NoPain can efficiently produce adversarial samples without the need of iterative updates or guidance from the surrogate classifiers. Extensive experiments demonstrate that the proposed end-to-end method outperforms baseline approaches in terms of both transferability and efficiency, while also maintaining notable advantages even against defense strategies. Code and model are available at https://github.com/cognaclee/nopain
- Abstract(参考訳): 敵攻撃は、敵のサンプルに対するディープモデルの脆弱性を悪用する。
既存のポイントクラウド攻撃者は特定のモデルに合わせて調整され、ホワイトボックスまたはブラックボックスの設定の勾配に基づいた摂動を反復的に最適化する。
有望な攻撃性能にもかかわらず、サロゲートモデルの特定のパラメータを過度に適合させるため、転送可能な敵のサンプルを作成するのに苦労することが多い。
この問題を克服するために、我々はデータ分散自体に焦点を移し、最適なトランスポート(OT)を用いてクロスネットワーク・ポイント・クラウド・アタックのためのデータ・多様体の固有の特異な境界を識別するNoPainという新しいアプローチを導入しました。
具体的には、まずノイズからターゲット特徴空間へのOTマッピングを計算し、次に微分不可能な位置を探索することによって特異境界を同定する。
最後に、特異境界に沿ってサンプルし、逆点雲を生成する。
特異境界が決定されると、NoPainはサロゲート分類器からの反復的な更新やガイダンスを必要とせずに、効率よく逆サンプルを生成できる。
大規模実験により,提案手法は,移動可能性と効率性の両方の観点からベースラインアプローチよりも優れており,防衛戦略においても顕著な優位性を維持していることがわかった。
コードとモデルはhttps://github.com/cognaclee/nopainで入手できる。
関連論文リスト
- Hard-Label Black-Box Attacks on 3D Point Clouds [66.52447238776482]
そこで本研究では,新しいスペクトル認識決定境界アルゴリズムに基づく新しい3D攻撃手法を提案する。
実験により,攻撃性能と対向品質の点で,既存の白黒ボックス攻撃者よりも競合性が高いことが示された。
論文 参考訳(メタデータ) (2024-11-30T09:05:02Z) - A Privacy-Preserving Walk in the Latent Space of Generative Models for
Medical Applications [11.39717289910264]
GAN(Generative Adversarial Networks)は、ターゲット分布に一致する合成サンプルを生成する能力を実証している。
GANは、潜伏空間に実際のサンプルのほぼ重複体を埋め込む傾向がある。
本稿では,深層モデルの効果的なトレーニングを支援するために,多種多様な合成サンプルを生成できる潜時空間ナビゲーション戦略を提案する。
論文 参考訳(メタデータ) (2023-07-06T13:35:48Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Query-Efficient and Scalable Black-Box Adversarial Attacks on Discrete
Sequential Data via Bayesian Optimization [10.246596695310176]
ブラックボックス設定における離散的な逐次データに基づくモデルに対する敵攻撃の問題に焦点をあてる。
我々はベイジアン最適化を用いたクエリ効率の良いブラックボックス攻撃を提案し、重要な位置を動的に計算する。
そこで我々は,摂動サイズを小さくした逆例を求めるポスト最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-17T06:11:36Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Local Aggressive Adversarial Attacks on 3D Point Cloud [12.121901103987712]
ディープニューラルネットワークは、モデルを意図的に騙してミスを犯すような敵の例をしがちだ。
本稿では,上記の課題を解決するために,攻撃的攻撃的攻撃攻撃(L3A)を提案する。
PointNet, PointNet++ および DGCNN を用いた実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2021-05-19T12:22:56Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。