論文の概要: Manipulating Neural Path Planners via Slight Perturbations
- arxiv url: http://arxiv.org/abs/2403.18256v1
- Date: Wed, 27 Mar 2024 04:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 18:16:31.473572
- Title: Manipulating Neural Path Planners via Slight Perturbations
- Title(参考訳): 軽度摂動によるニューラルパスプランナの操作
- Authors: Zikang Xiong, Suresh Jagannathan,
- Abstract要約: データ駆動型ニューラルパスプランナーは、ロボティクスコミュニティへの関心が高まっている。
ニューラルネットワークコンポーネントは通常、ブラックボックスとして提供され、基盤となる意思決定プロセスが無視される。
本稿では,バックドアと呼ばれる,隠された悪意のある動作をニューラルパスプランナに特定・注入する手法を提案する。
- 参考スコア(独自算出の注目度): 2.7624021966289605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven neural path planners are attracting increasing interest in the robotics community. However, their neural network components typically come as black boxes, obscuring their underlying decision-making processes. Their black-box nature exposes them to the risk of being compromised via the insertion of hidden malicious behaviors. For example, an attacker may hide behaviors that, when triggered, hijack a delivery robot by guiding it to a specific (albeit wrong) destination, trapping it in a predefined region, or inducing unnecessary energy expenditure by causing the robot to repeatedly circle a region. In this paper, we propose a novel approach to specify and inject a range of hidden malicious behaviors, known as backdoors, into neural path planners. Our approach provides a concise but flexible way to define these behaviors, and we show that hidden behaviors can be triggered by slight perturbations (e.g., inserting a tiny unnoticeable object), that can nonetheless significantly compromise their integrity. We also discuss potential techniques to identify these backdoors aimed at alleviating such risks. We demonstrate our approach on both sampling-based and search-based neural path planners.
- Abstract(参考訳): データ駆動型ニューラルパスプランナーは、ロボティクスコミュニティへの関心が高まっている。
しかしながら、ニューラルネットワークコンポーネントは一般的にブラックボックスとして提供され、基盤となる意思決定プロセスが無視される。
ブラックボックスの性質は、隠された悪意のある行動の挿入によって妥協されるリスクを露呈する。
例えば、攻撃者は、トリガーされると、特定の(間違った)目的地に誘導して配達ロボットをハイジャックしたり、事前に定義された領域に閉じ込めたり、ロボットに繰り返し領域を循環させることで不要なエネルギー消費を誘導したりすることで、その動作を隠すことができる。
本稿では,バックドア(バックドア)と呼ばれる,隠れた悪意のある動作をニューラルパスプランナに特定・注入する手法を提案する。
我々のアプローチは、これらの振舞いを定義するための簡潔で柔軟な方法を提供し、隠れた振舞いはわずかな摂動(例えば、小さな無意味な物体を挿入するなど)によって引き起こされる可能性があるが、それでもそれらの整合性を著しく損なうことができることを示す。
また、このようなリスクを軽減すべく、これらのバックドアを識別する可能性についても論じる。
サンプリングベースとサーチベースの両方のニューラルパスプランナに対するアプローチを実証する。
関連論文リスト
- Psychometrics for Hypnopaedia-Aware Machinery via Chaotic Projection of Artificial Mental Imagery [21.450023199935206]
バックドア攻撃は、学習プロセス中にトリガーの秘密の侵入を伴う。
バックドアの脅威を継続的に監視するためのサイバーネティックな枠組みを提案する。
バックドアトリガからマシンの動作を自律的に切り離すための,自己認識型アンラーニング機構を開発した。
論文 参考訳(メタデータ) (2024-09-29T00:59:26Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Verifying Neural Networks Against Backdoor Attacks [7.5033553032683855]
特定のニューラルネットワークが一定の成功率でバックドアのないかどうかを検証するためのアプローチを提案する。
実験結果から,バックドアの欠如やバックドアのトリガの発生を効果的に検証できることが示唆された。
論文 参考訳(メタデータ) (2022-05-14T07:25:54Z) - Can You Hear It? Backdoor Attacks via Ultrasonic Triggers [31.147899305987934]
本研究では,自動音声認識システムへのバックドア攻撃の選択肢について検討する。
以上の結果から, 毒性データの1%未満は, バックドア攻撃の実施に十分であり, 100%攻撃成功率に達することが示唆された。
論文 参考訳(メタデータ) (2021-07-30T12:08:16Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。