論文の概要: Generating Adversarial Events: A Motion-Aware Point Cloud Framework
- arxiv url: http://arxiv.org/abs/2602.08230v1
- Date: Mon, 09 Feb 2026 03:06:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.043724
- Title: Generating Adversarial Events: A Motion-Aware Point Cloud Framework
- Title(参考訳): 競合イベントの生成 - モーション対応のクラウドフレームワーク
- Authors: Hongwei Ren, Youxin Jiang, Qifei Gu, Xiangqian Wu,
- Abstract要約: イベントカメラは、自律運転、ロボット工学、人間とコンピュータの相互作用など、安全上重要な領域で広く採用されている。
深層ニューラルネットワークの脆弱性から敵の例まで、イベントベースのシステムの信頼性に重大な脅威が生じる。
我々は,ポイントクラウド表現を活用して敵イベントを生成する新しいフレームワークMA-ADVを提案する。
- 参考スコア(独自算出の注目度): 16.49307024552495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras have been widely adopted in safety-critical domains such as autonomous driving, robotics, and human-computer interaction. A pressing challenge arises from the vulnerability of deep neural networks to adversarial examples, which poses a significant threat to the reliability of event-based systems. Nevertheless, research into adversarial attacks on events is scarce. This is primarily due to the non-differentiable nature of mainstream event representations, which hinders the extension of gradient-based attack methods. In this paper, we propose MA-ADV, a novel \textbf{M}otion-\textbf{A}ware \textbf{Adv}ersarial framework. To the best of our knowledge, this is the first work to generate adversarial events by leveraging point cloud representations. MA-ADV accounts for high-frequency noise in events and employs a diffusion-based approach to smooth perturbations, while fully leveraging the spatial and temporal relationships among events. Finally, MA-ADV identifies the minimal-cost perturbation through a combination of sample-wise Adam optimization, iterative refinement, and binary search. Extensive experimental results validate that MA-ADV ensures a 100\% attack success rate with minimal perturbation cost, and also demonstrate enhanced robustness against defenses, underscoring the critical security challenges facing future event-based perception systems.
- Abstract(参考訳): イベントカメラは、自律運転、ロボット工学、人間とコンピュータの相互作用など、安全上重要な領域で広く採用されている。
深層ニューラルネットワークの脆弱性から敵の例まで、イベントベースのシステムの信頼性に重大な脅威が生じる。
しかし、事件に対する敵対的攻撃の研究は乏しい。
これは主に、勾配ベースの攻撃方法の拡張を妨げるメインストリームのイベント表現の非差別性に起因する。
本稿では,MA-ADVを提案する。MA-ADV, a novel \textbf{M}otion-\textbf{A}ware \textbf{Adv}ersarial framework。
我々の知る限りでは、これはポイントクラウド表現を活用することで敵のイベントを生成する最初の試みである。
MA-ADVはイベントの高周波ノイズを考慮し、スムーズな摂動に対して拡散に基づくアプローチを採用し、イベント間の空間的および時間的関係を完全に活用する。
最後に、MA-ADVは、サンプルワイドAdam最適化、反復精製、バイナリサーチの組み合わせにより、最小コストの摂動を識別する。
大規模実験の結果,MA-ADV は摂動コストを最小に抑え,100 % の攻撃成功率を保証するとともに,防衛に対する堅牢性も向上し,今後のイベントベース認識システムに直面する重要なセキュリティ課題を浮き彫りにしている。
関連論文リスト
- Input-Specific and Universal Adversarial Attack Generation for Spiking Neural Networks in the Spiking Domain [0.0]
敵の攻撃は、ネットワークの判断を騙すための微妙な入力摂動を見つけることを目的としている。
スパイキングニューラルネットワーク(SNN)に対する2つの新しい逆攻撃アルゴリズムを提案する。
NMNISTとIBM DVS Gestureという2つの広く使われているニューロモルフィック・ビジョン・データセットの実験結果から、提案した攻撃が既存のすべての最先端手法を超越していることが判明した。
論文 参考訳(メタデータ) (2025-05-07T19:49:18Z) - Unveiling Hidden Vulnerabilities in Digital Human Generation via Adversarial Attacks [14.356235723912564]
本稿では,デジタル・ヒューマン・ジェネレーション・モデルを効果的に実現可能な,敵対的な例を生成するための新しいフレームワークを提案する。
本手法では、可変オートエンコーダ(VAE)と制御ネットを利用して、元の画像の特徴に合わせた多様なターゲットノイズを生成する。
大規模な実験では、TBAの優位性を示し、推定誤差が41.0%増加し、平均改善率は17.0%に達した。
論文 参考訳(メタデータ) (2025-04-24T11:42:10Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - The Inherent Adversarial Robustness of Analog In-Memory Computing [2.435021773579434]
Deep Neural Network(DNN)アルゴリズムの重要な課題は、敵の攻撃に対する脆弱性である。
本稿では,位相変化メモリ(PCM)デバイスを用いたAIMCチップ上での予測を実験的に検証する。
ハードウェア・イン・ザ・ループ攻撃を行う際には、さらなる堅牢性も観察される。
論文 参考訳(メタデータ) (2024-11-11T14:29:59Z) - Let the Noise Speak: Harnessing Noise for a Unified Defense Against Adversarial and Backdoor Attacks [31.291700348439175]
機械学習に対する悪意のあるデータ操作攻撃は、安全クリティカルなアプリケーションにおける信頼性を損なう。
再建型侵入検知システムであるNoiSecを提案する。
NoiSecは、テスト入力からノイズを取り除き、ノイズから基礎となる特徴を抽出し、それらを活用して、システマティックな悪意のある操作を認識する。
論文 参考訳(メタデータ) (2024-06-18T21:44:51Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Certifiable Robustness to Adversarial State Uncertainty in Deep
Reinforcement Learning [40.989393438716476]
ディープニューラルネットワークベースのシステムは、現在では多くのロボティクスタスクにおいて最先端のシステムとなっているが、ネットワークの堅牢性に関する公式な保証なしに、安全クリティカルドメインへの適用は危険なままである。
センサー入力に対する小さな摂動は、しばしばネットワークベースの決定を変えるのに十分である。
この研究は、認証された敵対的ロバスト性の研究を活用して、深い強化学習アルゴリズムのためのオンラインロバストを開発する。
論文 参考訳(メタデータ) (2020-04-11T21:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。