論文の概要: Generating Adversarial Point Clouds Using Diffusion Model
- arxiv url: http://arxiv.org/abs/2507.21163v1
- Date: Fri, 25 Jul 2025 08:20:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.011441
- Title: Generating Adversarial Point Clouds Using Diffusion Model
- Title(参考訳): 拡散モデルを用いた逆点雲の生成
- Authors: Ruiyang Zhao, Bingbing Zhu, Chuxuan Tong, Xiaoyi Zhou, Xi Zheng,
- Abstract要約: 3Dポイントクラウド分類のための逆攻撃手法は、ポイントクラウド認識モデルの脆弱性を明らかにする。
現実のシナリオではより意味のあるブラックボックス攻撃は、しばしば悪い結果をもたらす。
本稿では,新しいブラックボックス対逆例生成法を提案する。
- 参考スコア(独自算出の注目度): 0.8865064978080249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attack methods for 3D point cloud classification reveal the vulnerabilities of point cloud recognition models. This vulnerability could lead to safety risks in critical applications that use deep learning models, such as autonomous vehicles. To uncover the deficiencies of these models, researchers can evaluate their security through adversarial attacks. However, most existing adversarial attack methods are based on white-box attacks. While these methods achieve high attack success rates and imperceptibility, their applicability in real-world scenarios is limited. Black-box attacks, which are more meaningful in real-world scenarios, often yield poor results. This paper proposes a novel black-box adversarial example generation method that utilizes a diffusion model to improve the attack success rate and imperceptibility in the black-box setting, without relying on the internal information of the point cloud classification model to generate adversarial samples. We use a 3D diffusion model to use the compressed features of the point cloud as prior knowledge to guide the reverse diffusion process to add adversarial points to clean examples. Subsequently, its reverse process is employed to transform the distribution of other categories into adversarial points, which are then added to the point cloud.
- Abstract(参考訳): 3Dポイントクラウド分類のための逆攻撃手法は、ポイントクラウド認識モデルの脆弱性を明らかにする。
この脆弱性は、自動運転車のようなディープラーニングモデルを使用する重要なアプリケーションにおいて、安全性のリスクにつながる可能性がある。
これらのモデルの欠陥を明らかにするために、研究者は敵の攻撃によってセキュリティを評価することができる。
しかし、既存の攻撃手法のほとんどは、ホワイトボックス攻撃に基づいている。
これらの手法は高い攻撃成功率と非受容性を達成するが、現実のシナリオにおける適用性は限られている。
現実のシナリオではより意味のあるブラックボックス攻撃は、多くの場合、悪い結果をもたらす。
本稿では,分散モデルを用いて,ポイントクラウド分類モデルの内部情報に頼らずに,ブラックボックス設定における攻撃成功率と非受容性を向上する新しいブラックボックス逆例生成手法を提案する。
我々は,3次元拡散モデルを用いて点雲の圧縮された特徴を事前知識として利用し,逆拡散過程を誘導し,逆拡散点をクリーンな例に付加する。
その後、その逆過程を用いて、他のカテゴリの分布を逆点に変換し、点雲に追加する。
関連論文リスト
- Hard-Label Black-Box Attacks on 3D Point Clouds [66.52447238776482]
そこで本研究では,新しいスペクトル認識決定境界アルゴリズムに基づく新しい3D攻撃手法を提案する。
実験により,攻撃性能と対向品質の点で,既存の白黒ボックス攻撃者よりも競合性が高いことが示された。
論文 参考訳(メタデータ) (2024-11-30T09:05:02Z) - Transferable 3D Adversarial Shape Completion using Diffusion Models [8.323647730916635]
3Dポイントクラウド機能学習は、3Dディープラーニングモデルのパフォーマンスを大幅に改善した。
既存の攻撃方法は、主にホワイトボックスのシナリオに焦点を当てており、最近提案された3Dディープラーニングモデルへの移行に苦労している。
本稿では,拡散モデルを用いて高品質な対向点雲を生成する。
提案した攻撃は、ブラックボックスモデルとディフェンスの両方に対して、最先端の敵攻撃法より優れている。
論文 参考訳(メタデータ) (2024-07-14T04:51:32Z) - PCLD: Point Cloud Layerwise Diffusion for Adversarial Purification [0.8192907805418583]
ポイントクラウドは、ロボット工学、自律運転、拡張現実など、さまざまな現実世界のアプリケーションに広く利用されている。
モデルの堅牢性を評価する典型的な方法は、敵攻撃によるものである。
本稿では, 層状拡散に基づく3次元ポイントクラウド防衛戦略であるポイントクラウド層拡散(PCLD)を提案する。
論文 参考訳(メタデータ) (2024-03-11T13:13:10Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - PointCA: Evaluating the Robustness of 3D Point Cloud Completion Models
Against Adversarial Examples [63.84378007819262]
本稿では,3次元クラウド完了モデルに対する最初の逆攻撃であるPointCAを提案する。
ポイントCAは、元のものと高い類似性を維持する逆点雲を生成することができる。
その結果,PointCAは77.9%から16.7%に低下し,その構造は0.01以下であることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:15:41Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。