論文の概要: Black-box Adversarial Attacks on CNN-based SLAM Algorithms
- arxiv url: http://arxiv.org/abs/2505.24654v1
- Date: Fri, 30 May 2025 14:41:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.00631
- Title: Black-box Adversarial Attacks on CNN-based SLAM Algorithms
- Title(参考訳): CNNに基づくSLAMアルゴリズムにおけるブラックボックス攻撃
- Authors: Maria Rafaela Gkeka, Bowen Sun, Evgenia Smirni, Christos D. Antonopoulos, Spyros Lalis, Nikolaos Bellas,
- Abstract要約: GCN-SLAMアルゴリズムに入力されたRGB画像にブラックボックスの逆数を適用する。
適度なスケールの攻撃でさえ、フレームの76%で障害を追跡する可能性がある。
- 参考スコア(独自算出の注目度): 2.0604242220737667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continuous advancements in deep learning have led to significant progress in feature detection, resulting in enhanced accuracy in tasks like Simultaneous Localization and Mapping (SLAM). Nevertheless, the vulnerability of deep neural networks to adversarial attacks remains a challenge for their reliable deployment in applications, such as navigation of autonomous agents. Even though CNN-based SLAM algorithms are a growing area of research there is a notable absence of a comprehensive presentation and examination of adversarial attacks targeting CNN-based feature detectors, as part of a SLAM system. Our work introduces black-box adversarial perturbations applied to the RGB images fed into the GCN-SLAM algorithm. Our findings on the TUM dataset [30] reveal that even attacks of moderate scale can lead to tracking failure in as many as 76% of the frames. Moreover, our experiments highlight the catastrophic impact of attacking depth instead of RGB input images on the SLAM system.
- Abstract(参考訳): ディープラーニングの継続的な進歩は、機能検出の大幅な進歩をもたらし、同時に局所化やマッピング(SLAM)といったタスクの精度が向上した。
それでも、敵対的攻撃に対するディープニューラルネットワークの脆弱性は、自律エージェントのナビゲーションなどのアプリケーションへの信頼性の高いデプロイにおいて、依然として課題である。
CNNベースのSLAMアルゴリズムは研究の領域が増えているが、SLAMシステムの一部として、CNNベースの特徴検出器をターゲットとする敵攻撃の包括的プレゼンテーションと検証が欠如している。
本稿では,GCN-SLAMアルゴリズムに入力されたRGB画像に対して,ブラックボックスの逆方向の摂動を導入する。
TUMデータセット[30]では、中規模の攻撃でさえ、フレームの76%で障害を追跡する可能性があることが判明した。
さらに, SLAMシステムにおけるRGB入力画像ではなく, 攻撃深度に対する破滅的な影響について検討した。
関連論文リスト
- Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - On the Robustness of Bayesian Neural Networks to Adversarial Attacks [11.277163381331137]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
BNN後部分布に対する損失の予測勾配は、後部からサンプリングされた各ニューラルネットワークが勾配に基づく攻撃に対して脆弱である場合でも消滅していることを示す。
論文 参考訳(メタデータ) (2022-07-13T12:27:38Z) - A Robust Backpropagation-Free Framework for Images [47.97322346441165]
画像データに対するエラーカーネル駆動型アクティベーションアライメントアルゴリズムを提案する。
EKDAAは、ローカルに派生したエラー送信カーネルとエラーマップを導入することで達成される。
結果は、識別不能なアクティベーション機能を利用するEKDAAトレーニングCNNに対して提示される。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - Online Adaptation of Monocular Depth Prediction with Visual SLAM [8.478040209440868]
CNNによる正確な深度予測の能力は、実用的な視界SLAMアプリケーションで広く利用されている大きな課題である。
深度予測を微調整する2つの相補的なプロセスからなる新しいオンライン適応フレームワークを提案する。
実験環境におけるベンチマークデータセットと実ロボットの両方の実験結果から,提案手法がSLAM再構成精度を向上させることを示す。
論文 参考訳(メタデータ) (2021-11-07T14:20:35Z) - A Front-End for Dense Monocular SLAM using a Learned Outlier Mask Prior [11.468537169201083]
単一のRGB画像からの深度予測の最近の成果は、畳み込みニューラルネットワーク(CNN)と古典的同時ローカライゼーションとマッピング(SLAM)アルゴリズムを組み合わせた新しい研究領域に力を入れている。
現在のCNN-SLAMアプローチのほとんどは、深さ予測のみを生かしているが、CNNの製品はまだない。
我々は,sparseで実装可能な高密度cnn支援slamフロントエンドを開発し,屋内および屋外のデータセットで評価する。
論文 参考訳(メタデータ) (2021-04-01T15:43:28Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Exploiting Vulnerability of Pooling in Convolutional Neural Networks by
Strict Layer-Output Manipulation for Adversarial Attacks [7.540176446791261]
畳み込みニューラルネットワーク(CNN)は、インテリジェント車両などの移動ロボットにますます適用されています。
ロボットアプリケーションにおけるCNNのセキュリティは重要な問題であり、CNNに対する潜在的な敵対攻撃は研究に値する。
本稿では,ネットワーク構造の観点から,プールの脆弱性を調査し,活用することで,CNNに対する敵対攻撃を行う。
論文 参考訳(メタデータ) (2020-12-21T15:18:41Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。