論文の概要: Attacking the Loop: Adversarial Attacks on Graph-based Loop Closure
Detection
- arxiv url: http://arxiv.org/abs/2312.06991v1
- Date: Tue, 12 Dec 2023 05:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:27:14.374601
- Title: Attacking the Loop: Adversarial Attacks on Graph-based Loop Closure
Detection
- Title(参考訳): ループ攻撃:グラフベースのループクロージャ検出に対する逆攻撃
- Authors: Jonathan J.Y. Kim, Martin Urschler, Patricia J. Riddle and Jorg S.
Wicker
- Abstract要約: ループクロージャ検出(LCD)は視覚SLAM(vSLAM)の重要な構成要素である
本稿では,分散度に基づく摂動法を用いた新しいブラックボックス回避攻撃フレームワークであるAdversarial-LCDを提案する。
評価の結果,SVM-RBFサロゲートモデルを用いたAdversarial-LCDの攻撃性能は他の機械学習サロゲートアルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 1.1060425537315086
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the advancement in robotics, it is becoming increasingly common for
large factories and warehouses to incorporate visual SLAM (vSLAM) enabled
automated robots that operate closely next to humans. This makes any
adversarial attacks on vSLAM components potentially detrimental to humans
working alongside them. Loop Closure Detection (LCD) is a crucial component in
vSLAM that minimizes the accumulation of drift in mapping, since even a small
drift can accumulate into a significant drift over time. A prior work by Kim et
al., SymbioLCD2, unified visual features and semantic objects into a single
graph structure for finding loop closure candidates. While this provided a
performance improvement over visual feature-based LCD, it also created a single
point of vulnerability for potential graph-based adversarial attacks. Unlike
previously reported visual-patch based attacks, small graph perturbations are
far more challenging to detect, making them a more significant threat. In this
paper, we present Adversarial-LCD, a novel black-box evasion attack framework
that employs an eigencentrality-based perturbation method and an SVM-RBF
surrogate model with a Weisfeiler-Lehman feature extractor for attacking
graph-based LCD. Our evaluation shows that the attack performance of
Adversarial-LCD with the SVM-RBF surrogate model was superior to that of other
machine learning surrogate algorithms, including SVM-linear, SVM-polynomial,
and Bayesian classifier, demonstrating the effectiveness of our attack
framework. Furthermore, we show that our eigencentrality-based perturbation
method outperforms other algorithms, such as Random-walk and Shortest-path,
highlighting the efficiency of Adversarial-LCD's perturbation selection method.
- Abstract(参考訳): ロボット工学の進歩に伴い、大規模工場や倉庫では、人間のすぐ隣で動く視覚SLAM(vSLAM)を有効にした自動化ロボットを組み込むことがますます一般的になっている。
これにより、vSLAMコンポーネントに対する敵対的な攻撃は、それと共に働く人間に有害である可能性がある。
ループクロージャ検出(LCD)は、小さなドリフトであっても時間とともに大きなドリフトに蓄積できるため、マッピングにおけるドリフトの蓄積を最小限にするvSLAMの重要な構成要素である。
Kimらによる以前の研究、SymbioLCD2は、ループクロージャ候補を見つけるための単一のグラフ構造に視覚的特徴とセマンティックオブジェクトを統合する。
これにより、視覚的特徴ベースのLCDよりもパフォーマンスが向上する一方で、グラフベースの敵対攻撃に対する単一の脆弱性も生んだ。
以前報告されたvisual-patchベースの攻撃とは異なり、小さなグラフの摂動は検出がはるかに難しく、より重大な脅威となる。
本稿では,固有分散性に基づく摂動法とWeisfeiler-Lehman特徴抽出器を用いたSVM-RBFサロゲートモデルを用いた新しいブラックボックス回避攻撃フレームワークであるAdversarial-LCDを提案する。
SVM-RBFサロゲートモデルを用いたAdversarial-LCDの攻撃性能は,SVM-linear,SVM-polynomial,Bayesianなどの他の機械学習サロゲートアルゴリズムよりも優れており,攻撃フレームワークの有効性が示された。
さらに,我々の固有分散性に基づく摂動法はランダムウォークやショートストパスなどの他のアルゴリズムよりも優れており,逆LCDの摂動選択法の効率性を強調している。
関連論文リスト
- ORCHID: Streaming Threat Detection over Versioned Provenance Graphs [11.783370157959968]
本稿では,リアルタイムイベントストリーム上でプロセスレベルの脅威を詳細に検出する新しいProv-IDSであるORCHIDを提案する。
ORCHIDは、バージョン付き前処理グラフのユニークな不変特性を利用して、グラフ全体を逐次RNNモデルに反復的に埋め込む。
我々は、DARPA TCを含む4つの公開データセット上でORCHIDを評価し、ORCHIDが競合する分類性能を提供できることを示す。
論文 参考訳(メタデータ) (2024-08-23T19:44:40Z) - Detecting Masquerade Attacks in Controller Area Networks Using Graph Machine Learning [0.2812395851874055]
本稿では,グラフ機械学習(ML)を用いたCANバスにおけるマスクレード攻撃検出のための新しいフレームワークを提案する。
本稿では,CANバスフレームをメッセージシーケンスグラフ(MSG)として表現し,時系列からコンテキスト統計属性を付加することにより,検出能力を向上できることを示す。
提案手法は,CANフレームの相互作用を包括的かつ動的に解析し,ロバスト性や効率性を向上する。
論文 参考訳(メタデータ) (2024-08-10T04:17:58Z) - Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。