論文の概要: Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2403.05247v1
- Date: Fri, 8 Mar 2024 12:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 19:56:12.475257
- Title: Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds
- Title(参考訳): hide in thicket: 3次元点雲上の知覚不能で合理的な摂動を生成する
- Authors: Tianrui Lou, Xiaojun Jia, Jindong Gu, Li Liu, Siyuan Liang, Bangyan
He, Xiaochun Cao
- Abstract要約: 3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
- 参考スコア(独自算出の注目度): 62.94859179323329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attack methods based on point manipulation for 3D point cloud
classification have revealed the fragility of 3D models, yet the adversarial
examples they produce are easily perceived or defended against. The trade-off
between the imperceptibility and adversarial strength leads most point attack
methods to inevitably introduce easily detectable outlier points upon a
successful attack. Another promising strategy, shape-based attack, can
effectively eliminate outliers, but existing methods often suffer significant
reductions in imperceptibility due to irrational deformations. We find that
concealing deformation perturbations in areas insensitive to human eyes can
achieve a better trade-off between imperceptibility and adversarial strength,
specifically in parts of the object surface that are complex and exhibit
drastic curvature changes. Therefore, we propose a novel shape-based
adversarial attack method, HiT-ADV, which initially conducts a two-stage search
for attack regions based on saliency and imperceptibility scores, and then adds
deformation perturbations in each attack region using Gaussian kernel
functions. Additionally, HiT-ADV is extendable to physical attack. We propose
that by employing benign resampling and benign rigid transformations, we can
further enhance physical adversarial strength with little sacrifice to
imperceptibility. Extensive experiments have validated the superiority of our
method in terms of adversarial and imperceptible properties in both digital and
physical spaces. Our code is avaliable at: https://github.com/TRLou/HiT-ADV.
- Abstract(参考訳): 3Dポイントクラウド分類のための点操作に基づく逆攻撃法は、3Dモデルの脆弱性を明らかにしているが、それらが生成する逆攻撃例は容易に認識または防御される。
認識不能性と対向強度のトレードオフは、ほとんどのポイント攻撃法において、攻撃成功時に容易に検出可能なアウトリアポイントを導入することにつながる。
もう一つの有望な戦略である形状ベースの攻撃は、効果的に外れ値を取り除くことができるが、既存の手法では、不合理な変形によるインセプティビリティの大幅な低下をしばしば経験する。
人間の眼に敏感な領域における変形摂動の隠蔽は、知覚不可能性と対角的強度とのトレードオフを、特に複雑で劇的な曲率変化を示す物体表面の一部でより良く得ることが判明した。
そこで本研究では,まず2段階の攻撃領域探索を行い,その後ガウスカーネル関数を用いて各攻撃領域に変形摂動を付加する,新しい形状型対向攻撃手法HiT-ADVを提案する。
また、HiT-ADVは物理的攻撃に拡張可能である。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
デジタル空間と物理空間の両方における対角的・非受容的特性の観点から,本手法の優位性を検証した。
私たちのコードは、 https://github.com/TRLou/HiT-ADV。
関連論文リスト
- Adaptive Local Adversarial Attacks on 3D Point Clouds for Augmented
Reality [10.118505317224683]
敵対的な例は、3Dニューラルネットワークモデルの堅牢性を改善する上で有益である。
ほとんどの3次元対向攻撃法は、全点の雲を乱して敵の例を生成する。
本稿では,3次元点群に適応的局所対向攻撃法(AL-Adv)を提案し,対向点群を生成する。
論文 参考訳(メタデータ) (2023-03-12T11:52:02Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Imperceptible and Robust Backdoor Attack in 3D Point Cloud [62.992167285646275]
本稿では、この課題に対処するために、新しい非受容的で堅牢なバックドアアタック(IRBA)を提案する。
我々は、重み付き局所変換(WLT)と呼ばれる非線形局所変換を用いて、ユニークな変換を持つ有毒試料を構築する。
3つのベンチマークデータセットと4つのモデルによる実験により、IRBAは前処理技術でもほとんどの場合80%以上のASRを達成することが示された。
論文 参考訳(メタデータ) (2022-08-17T03:53:10Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Imperceptible Transfer Attack and Defense on 3D Point Cloud
Classification [12.587561231609083]
我々は2つの新しい視点と挑戦的な視点から3Dポイント・クラウド・アタックを調査した。
我々は、最も有害な歪みを発生させる逆変換モデルを開発し、抵抗する逆変換例を強制する。
我々は、より差別的なポイントクラウド表現を学習することで、より堅牢なブラックボックス3Dモデルをトレーニングし、そのようなITA攻撃に対して防御します。
論文 参考訳(メタデータ) (2021-11-22T05:07:36Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Local Aggressive Adversarial Attacks on 3D Point Cloud [12.121901103987712]
ディープニューラルネットワークは、モデルを意図的に騙してミスを犯すような敵の例をしがちだ。
本稿では,上記の課題を解決するために,攻撃的攻撃的攻撃攻撃(L3A)を提案する。
PointNet, PointNet++ および DGCNN を用いた実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2021-05-19T12:22:56Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。