論文の概要: Attacking the Loop: Adversarial Attacks on Graph-based Loop Closure
Detection
- arxiv url: http://arxiv.org/abs/2312.06991v1
- Date: Tue, 12 Dec 2023 05:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:27:14.374601
- Title: Attacking the Loop: Adversarial Attacks on Graph-based Loop Closure
Detection
- Title(参考訳): ループ攻撃:グラフベースのループクロージャ検出に対する逆攻撃
- Authors: Jonathan J.Y. Kim, Martin Urschler, Patricia J. Riddle and Jorg S.
Wicker
- Abstract要約: ループクロージャ検出(LCD)は視覚SLAM(vSLAM)の重要な構成要素である
本稿では,分散度に基づく摂動法を用いた新しいブラックボックス回避攻撃フレームワークであるAdversarial-LCDを提案する。
評価の結果,SVM-RBFサロゲートモデルを用いたAdversarial-LCDの攻撃性能は他の機械学習サロゲートアルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 1.1060425537315086
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the advancement in robotics, it is becoming increasingly common for
large factories and warehouses to incorporate visual SLAM (vSLAM) enabled
automated robots that operate closely next to humans. This makes any
adversarial attacks on vSLAM components potentially detrimental to humans
working alongside them. Loop Closure Detection (LCD) is a crucial component in
vSLAM that minimizes the accumulation of drift in mapping, since even a small
drift can accumulate into a significant drift over time. A prior work by Kim et
al., SymbioLCD2, unified visual features and semantic objects into a single
graph structure for finding loop closure candidates. While this provided a
performance improvement over visual feature-based LCD, it also created a single
point of vulnerability for potential graph-based adversarial attacks. Unlike
previously reported visual-patch based attacks, small graph perturbations are
far more challenging to detect, making them a more significant threat. In this
paper, we present Adversarial-LCD, a novel black-box evasion attack framework
that employs an eigencentrality-based perturbation method and an SVM-RBF
surrogate model with a Weisfeiler-Lehman feature extractor for attacking
graph-based LCD. Our evaluation shows that the attack performance of
Adversarial-LCD with the SVM-RBF surrogate model was superior to that of other
machine learning surrogate algorithms, including SVM-linear, SVM-polynomial,
and Bayesian classifier, demonstrating the effectiveness of our attack
framework. Furthermore, we show that our eigencentrality-based perturbation
method outperforms other algorithms, such as Random-walk and Shortest-path,
highlighting the efficiency of Adversarial-LCD's perturbation selection method.
- Abstract(参考訳): ロボット工学の進歩に伴い、大規模工場や倉庫では、人間のすぐ隣で動く視覚SLAM(vSLAM)を有効にした自動化ロボットを組み込むことがますます一般的になっている。
これにより、vSLAMコンポーネントに対する敵対的な攻撃は、それと共に働く人間に有害である可能性がある。
ループクロージャ検出(LCD)は、小さなドリフトであっても時間とともに大きなドリフトに蓄積できるため、マッピングにおけるドリフトの蓄積を最小限にするvSLAMの重要な構成要素である。
Kimらによる以前の研究、SymbioLCD2は、ループクロージャ候補を見つけるための単一のグラフ構造に視覚的特徴とセマンティックオブジェクトを統合する。
これにより、視覚的特徴ベースのLCDよりもパフォーマンスが向上する一方で、グラフベースの敵対攻撃に対する単一の脆弱性も生んだ。
以前報告されたvisual-patchベースの攻撃とは異なり、小さなグラフの摂動は検出がはるかに難しく、より重大な脅威となる。
本稿では,固有分散性に基づく摂動法とWeisfeiler-Lehman特徴抽出器を用いたSVM-RBFサロゲートモデルを用いた新しいブラックボックス回避攻撃フレームワークであるAdversarial-LCDを提案する。
SVM-RBFサロゲートモデルを用いたAdversarial-LCDの攻撃性能は,SVM-linear,SVM-polynomial,Bayesianなどの他の機械学習サロゲートアルゴリズムよりも優れており,攻撃フレームワークの有効性が示された。
さらに,我々の固有分散性に基づく摂動法はランダムウォークやショートストパスなどの他のアルゴリズムよりも優れており,逆LCDの摂動選択法の効率性を強調している。
関連論文リスト
- Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - MalPurifier: Enhancing Android Malware Detection with Adversarial
Purification against Evasion Attacks [19.68134775248897]
MalPurifierは敵の浄化を利用して、独立して摂動を除去し、軽く柔軟な方法で攻撃を緩和する。
2つのAndroidマルウェアデータセットの実験結果は、MalPurifierが最先端の防御よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-12-11T14:48:43Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。