論文の概要: Spatiotemporal Attacks for Embodied Agents
- arxiv url: http://arxiv.org/abs/2005.09161v3
- Date: Tue, 17 Nov 2020 14:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 14:07:13.674966
- Title: Spatiotemporal Attacks for Embodied Agents
- Title(参考訳): 身体的エージェントに対する時空間攻撃
- Authors: Aishan Liu, Tairan Huang, Xianglong Liu, Yitao Xu, Yuqing Ma, Xinyun
Chen, Stephen J. Maybank, Dacheng Tao
- Abstract要約: 我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
- 参考スコア(独自算出の注目度): 119.43832001301041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks are valuable for providing insights into the blind-spots
of deep learning models and help improve their robustness. Existing work on
adversarial attacks have mainly focused on static scenes; however, it remains
unclear whether such attacks are effective against embodied agents, which could
navigate and interact with a dynamic environment. In this work, we take the
first step to study adversarial attacks for embodied agents. In particular, we
generate spatiotemporal perturbations to form 3D adversarial examples, which
exploit the interaction history in both the temporal and spatial dimensions.
Regarding the temporal dimension, since agents make predictions based on
historical observations, we develop a trajectory attention module to explore
scene view contributions, which further help localize 3D objects appeared with
the highest stimuli. By conciliating with clues from the temporal dimension,
along the spatial dimension, we adversarially perturb the physical properties
(e.g., texture and 3D shape) of the contextual objects that appeared in the
most important scene views. Extensive experiments on the EQA-v1 dataset for
several embodied tasks in both the white-box and black-box settings have been
conducted, which demonstrate that our perturbations have strong attack and
generalization abilities.
- Abstract(参考訳): 敵対的攻撃は、ディープラーニングモデルの盲点に関する洞察を与え、その堅牢性を改善するのに役立つ。
既存の敵攻撃の研究は主に静的な場面に焦点を当てているが、そのような攻撃が動的環境をナビゲートし操作できるエンボディエージェントに対して有効かどうかは不明だ。
本研究では,具体化エージェントに対する敵意攻撃を研究するための第一歩を踏み出す。
特に,時空間次元と時空間次元の両方の相互作用履歴を利用する3次元対角線例を形成する時空間摂動を生成する。
時間次元については, エージェントが過去の観測に基づいて予測を行うため, シーンビューの寄与を探索するための軌道注意モジュールを開発し, 高刺激で出現する3次元物体の局所化をさらに支援する。
空間的次元に沿った時間的次元からの手がかりと調和することにより、最も重要なシーンビューに現れるコンテキストオブジェクトの物理的特性(テクスチャや3次元形状など)を逆向きに摂動する。
ホワイトボックス設定とブラックボックス設定の両方において,いくつかの具体化タスクに対するEQA-v1データセットの大規模な実験が行われ,我々の摂動が強い攻撃力と一般化能力を持つことが示されている。
関連論文リスト
- Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Instantaneous Perception of Moving Objects in 3D [86.38144604783207]
周囲の交通参加者の3次元運動の認識は、運転安全に不可欠である。
本研究では,物体点雲の局所的な占有率の達成を利用して形状を密度化し,水泳人工物の影響を軽減することを提案する。
広汎な実験は、標準的な3次元運動推定手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-05T01:07:24Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Adversarial Vulnerability of Temporal Feature Networks for Object
Detection [5.525433572437716]
本研究では,物体検出のための時間的特徴ネットワークが,普遍的敵攻撃に対して脆弱であるかどうかを検討する。
画像全体に対する知覚不能ノイズと,局所的な対向パッチの2種類の攻撃について検討した。
KITTIおよびnuScenesデータセットに関する実験により、K-PGDによるロバスト化モデルが、研究された攻撃に耐えられることを示した。
論文 参考訳(メタデータ) (2022-08-23T07:08:54Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Imperceptible Transfer Attack and Defense on 3D Point Cloud
Classification [12.587561231609083]
我々は2つの新しい視点と挑戦的な視点から3Dポイント・クラウド・アタックを調査した。
我々は、最も有害な歪みを発生させる逆変換モデルを開発し、抵抗する逆変換例を強制する。
我々は、より差別的なポイントクラウド表現を学習することで、より堅牢なブラックボックス3Dモデルをトレーニングし、そのようなITA攻撃に対して防御します。
論文 参考訳(メタデータ) (2021-11-22T05:07:36Z) - Dual Attention Suppression Attack: Generate Adversarial Camouflage in
Physical World [33.63565658548095]
本稿では,認識過程の本質的な特徴に注意が反映されるという観点から,二重注意抑制(DAS)攻撃を提案する。
モデルを共有する類似の注意パターンをターゲットから非ターゲット領域に気を散らすことで、移動可能な逆カモフラージュを生成します。
人間の視覚の注意が常にサルエントなアイテムに焦点を当てているという事実に基づいて、人間特有のボトムアップの注意を回避し、視覚的に自然なカモフラージュを生成する。
論文 参考訳(メタデータ) (2021-03-01T14:46:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。