論文の概要: Adversarial Attacks and Detection in Visual Place Recognition for Safer Robot Navigation
- arxiv url: http://arxiv.org/abs/2506.15988v1
- Date: Thu, 19 Jun 2025 03:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.923959
- Title: Adversarial Attacks and Detection in Visual Place Recognition for Safer Robot Navigation
- Title(参考訳): サファーロボットナビゲーションのための視覚的位置認識における逆攻撃と検出
- Authors: Connor Malone, Owen Claxton, Iman Shames, Michael Milford,
- Abstract要約: スタンドアロンの視覚的位置認識(VPR)システムは、よく設計された敵攻撃に対する防御がほとんどない。
本稿では、他の知覚タスクに共通する4つの敵攻撃と、VPR局所化性能に対する4つの新しいVPR特異的攻撃の効果を広範囲に分析する。
- 参考スコア(独自算出の注目度): 16.01119279073898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stand-alone Visual Place Recognition (VPR) systems have little defence against a well-designed adversarial attack, which can lead to disastrous consequences when deployed for robot navigation. This paper extensively analyzes the effect of four adversarial attacks common in other perception tasks and four novel VPR-specific attacks on VPR localization performance. We then propose how to close the loop between VPR, an Adversarial Attack Detector (AAD), and active navigation decisions by demonstrating the performance benefit of simulated AADs in a novel experiment paradigm -- which we detail for the robotics community to use as a system framework. In the proposed experiment paradigm, we see the addition of AADs across a range of detection accuracies can improve performance over baseline; demonstrating a significant improvement -- such as a ~50% reduction in the mean along-track localization error -- can be achieved with True Positive and False Positive detection rates of only 75% and up to 25% respectively. We examine a variety of metrics including: Along-Track Error, Percentage of Time Attacked, Percentage of Time in an `Unsafe' State, and Longest Continuous Time Under Attack. Expanding further on these results, we provide the first investigation into the efficacy of the Fast Gradient Sign Method (FGSM) adversarial attack for VPR. The analysis in this work highlights the need for AADs in real-world systems for trustworthy navigation, and informs quantitative requirements for system design.
- Abstract(参考訳): スタンドアロンの視覚的位置認識(VPR)システムは、よく設計された敵攻撃に対する防御がほとんどないため、ロボットナビゲーションに配備された場合の悲惨な結果につながる可能性がある。
本稿では、他の知覚タスクに共通する4つの敵攻撃と、VPR局所化性能に対する4つの新しいVPR特異的攻撃の効果を広範囲に分析する。
次に、VPR、AAD(Adversarial Detection Detector)、アクティブナビゲーション決定のループを、ロボットコミュニティがシステムフレームワークとして使用するための新しい実験パラダイムで、シミュレーションされたAADのパフォーマンス上のメリットを実証することで、VPRとAAD間のループを閉じる方法を提案する。この実験パラダイムでは、さまざまな検出精度にわたるAADの追加により、ベースライン上でのパフォーマンスが向上し、平均コースローカライゼーション誤差の約50%削減などの大幅な改善が、True PositiveとFalse Positive検出率の75%と25%で達成できる。
Along-Track Error, Percentage of Time Attacked, Percentage of Time in a ‘Unsafe’ State, Longest Continuous Time Under Attack。
これらの結果をさらに拡張し,VPRに対するFGSM(Fast Gradient Sign Method)攻撃の有効性について検討した。
この研究は、信頼性の高いナビゲーションのための現実のシステムにおけるAADの必要性を強調し、システム設計の量的要求を通知する。
関連論文リスト
- Active Test-time Vision-Language Navigation [60.69722522420299]
ATENAは、不確実なナビゲーション結果に対するエピソードフィードバックを通じて、実用的な人間とロボットのインタラクションを可能にする、テスト時のアクティブな学習フレームワークである。
特にATENAは、成功エピソードにおける確実性を高め、失敗エピソードにおいてそれを減らすことを学び、不確実性の校正を改善している。
さらに,自信ある予測に基づいて,エージェントがナビゲーション結果を評価することができる自己学習戦略を提案する。
論文 参考訳(メタデータ) (2025-06-07T02:24:44Z) - FlippedRAG: Black-Box Opinion Manipulation Adversarial Attacks to Retrieval-Augmented Generation Models [22.35026334463735]
我々は、ブラックボックスRAGシステムに対するトランスファーベースの敵攻撃であるFlippedRAGを提案する。
FlippedRAGは、RAG生成反応の意見において平均50%の方向シフトを達成する。
これらの結果は、RAGシステムのセキュリティと信頼性を確保するために革新的な防衛ソリューションを開発する緊急の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-01-06T12:24:57Z) - Improving Visual Place Recognition Based Robot Navigation By Verifying Localization Estimates [14.354164363224529]
本研究では,MLP(Multi-Layer Perceptron)整合性モニタを提案する。
パフォーマンスと一般化性の向上、環境ごとのトレーニングの削除、手動のチューニング要件の削減などがその例だ。
提案手法を実世界の大規模な実験で検証した。
論文 参考訳(メタデータ) (2024-07-11T03:47:14Z) - ADVENT: Attack/Anomaly Detection in VANETs [0.8594140167290099]
本研究では,悪意のある行動をリアルタイムに検出するシステムを提案する。
統計的および機械学習技術をシームレスに統合することにより、提案システムは単純さと効率性を優先する。
F1スコアの99.66%で高速に攻撃を検知し、その後、平均で97.85%の悪意のある車両を識別する。
論文 参考訳(メタデータ) (2024-01-16T18:49:08Z) - Robust Adversarial Attacks Detection for Deep Learning based Relative
Pose Estimation for Space Rendezvous [8.191688622709444]
本稿では,ディープニューラルネットワークを用いた相対ポーズ推定手法の逆攻撃検出のための新しい手法を提案する。
提案した対向攻撃検出器は99.21%の精度で検出できる。
論文 参考訳(メタデータ) (2023-11-10T11:07:31Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。