論文の概要: Rethinking Gradient-based Adversarial Attacks on Point Cloud Classification
- arxiv url: http://arxiv.org/abs/2505.21854v1
- Date: Wed, 28 May 2025 00:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.345143
- Title: Rethinking Gradient-based Adversarial Attacks on Point Cloud Classification
- Title(参考訳): ポイントクラウド分類に基づくグラディエントベースの逆攻撃の再考
- Authors: Jun Chen, Xinke Li, Mingyue Xu, Tianrui Li, Chongshou Li,
- Abstract要約: 勾配に基づく敵攻撃は、点雲分類モデルの堅牢性を評価する主要なアプローチとなっている。
既存の方法はしばしば、点雲の不均一性を考慮していない均一な更新規則に依存している。
攻撃の有効性と非受容性の両方を改善するための2つの新しい戦略を提案する。
- 参考スコア(独自算出の注目度): 11.435809241475656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient-based adversarial attacks have become a dominant approach for evaluating the robustness of point cloud classification models. However, existing methods often rely on uniform update rules that fail to consider the heterogeneous nature of point clouds, resulting in excessive and perceptible perturbations. In this paper, we rethink the design of gradient-based attacks by analyzing the limitations of conventional gradient update mechanisms and propose two new strategies to improve both attack effectiveness and imperceptibility. First, we introduce WAAttack, a novel framework that incorporates weighted gradients and an adaptive step-size strategy to account for the non-uniform contribution of points during optimization. This approach enables more targeted and subtle perturbations by dynamically adjusting updates according to the local structure and sensitivity of each point. Second, we propose SubAttack, a complementary strategy that decomposes the point cloud into subsets and focuses perturbation efforts on structurally critical regions. Together, these methods represent a principled rethinking of gradient-based adversarial attacks for 3D point cloud classification. Extensive experiments demonstrate that our approach outperforms state-of-the-art baselines in generating highly imperceptible adversarial examples. Code will be released upon paper acceptance.
- Abstract(参考訳): 点雲分類モデルのロバスト性を評価するために, グラディエントベースの敵攻撃が主流となっている。
しかし、既存の手法は、点雲の不均一性を考慮していない均一な更新規則に依存しており、過度で知覚可能な摂動をもたらす。
本稿では,従来の勾配更新機構の限界を解析して,勾配に基づく攻撃の設計を再考し,攻撃の有効性と非受容性の両方を改善するための2つの新しい戦略を提案する。
まず、重み付き勾配と適応的なステップサイズ戦略を取り入れた新しいフレームワークであるWAAttackを紹介し、最適化中の点の不均一な寄与を考慮に入れた。
このアプローチは、各点の局所構造と感度に応じて更新を動的に調整することで、より標的的で微妙な摂動を可能にする。
第2にSubAttackを提案する。これは、ポイントクラウドをサブセットに分解し、構造的に重要な領域に摂動を集中させる補完戦略である。
これらの手法は、3次元点雲分類のための勾配に基づく逆攻撃の原理を再考するものである。
大規模な実験により,本手法は高い知覚不可能な対逆例を生成する上で,最先端のベースラインよりも優れていることが示された。
コードは受理後に公開される。
関連論文リスト
- Locating and Mitigating Gradient Conflicts in Point Cloud Domain Adaptation via Saliency Map Skewness [11.470070927586017]
そこで我々は,3次元サリエンシマップの歪度に基づく新たなスコアリング機構を開発し,目標ラベルを必要とせずに勾配の衝突を推定する。
私たちのアプローチはスケーラブルで、控えめな計算オーバーヘッドを導入し、すべてのポイントクラウド UDA MTL フレームワークに統合することができます。
論文 参考訳(メタデータ) (2025-04-22T11:16:19Z) - Hard-Label Black-Box Attacks on 3D Point Clouds [66.52447238776482]
そこで本研究では,新しいスペクトル認識決定境界アルゴリズムに基づく新しい3D攻撃手法を提案する。
実験により,攻撃性能と対向品質の点で,既存の白黒ボックス攻撃者よりも競合性が高いことが示された。
論文 参考訳(メタデータ) (2024-11-30T09:05:02Z) - Evaluating the Robustness of LiDAR Point Cloud Tracking Against Adversarial Attack [6.101494710781259]
本稿では,3次元物体追跡の文脈において,敵攻撃を行うための統一的なフレームワークを提案する。
ブラックボックス攻撃のシナリオに対処するために,新たなトランスファーベースアプローチであるTarget-aware Perturbation Generation (TAPG)アルゴリズムを導入する。
実験の結果,ブラックボックスとホワイトボックスの両方の攻撃を受けた場合,高度な追跡手法に重大な脆弱性があることが判明した。
論文 参考訳(メタデータ) (2024-10-28T10:20:38Z) - AGSOA:Graph Neural Network Targeted Attack Based on Average Gradient and Structure Optimization [16.681157857248436]
グラフニューラルネットワーク(GNN)は、グラフに小さな摂動を加えることでパフォーマンス低下を引き起こす敵攻撃に対して脆弱である。
本稿では、平均勾配計算と構造最適化モジュールで構成されるAGSOAと呼ばれるGNNに対する攻撃を提案する。
論文 参考訳(メタデータ) (2024-06-19T05:29:20Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - PointCAT: Contrastive Adversarial Training for Robust Point Cloud
Recognition [111.55944556661626]
我々は、ポイントクラウド認識モデルの堅牢性を高めるために、PointCAT(Point-Cloud Contrastive Adversarial Training)を提案する。
我々は、教師付きコントラスト損失を利用して、認識モデルにより抽出された超球面特徴のアライメントと均一性を促進する。
より難易度の高い点雲を実現するため,認識モデルと逆向きにノイズ発生装置をスクラッチから訓練する。
論文 参考訳(メタデータ) (2022-09-16T08:33:04Z) - An Intermediate-level Attack Framework on The Basis of Linear Regression [89.85593878754571]
本論文はECCVにおいて,いくつかのベースライン対向例の転送性を改善するため,中間レベルアタック(中間レベルアタック)を提案し,本研究を実質的に拡張するものである。
我々は,中間レベルの相違点(対角的特徴と良性的特徴)から,対角的例の分類的損失への直接的な線形写像の確立を提唱する。
1) 様々な線形回帰モデルがマッピングを確立するために考慮可能であること,2) 最終的に得られた中間レベル差の大きさが逆転率と線形に相関していること,3) ベースラインアタックを複数回実行することで,さらなる性能向上が達成できること,などが示される。
論文 参考訳(メタデータ) (2022-03-21T03:54:53Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。