論文の概要: Towards Physical World Backdoor Attacks against Skeleton Action Recognition
- arxiv url: http://arxiv.org/abs/2408.08671v1
- Date: Fri, 16 Aug 2024 11:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 15:45:34.993464
- Title: Towards Physical World Backdoor Attacks against Skeleton Action Recognition
- Title(参考訳): 骨格行動認識に対する物理世界バックドア攻撃に向けて
- Authors: Qichen Zheng, Yi Yu, Siyuan Yang, Jun Liu, Kwok-Yan Lam, Alex Kot,
- Abstract要約: スケルトン行動認識(SAR)は、ヒト骨格構造の効率的な表現において大きな関心を集めている。
近年の研究では、SARモデル、特に敵の攻撃に対する脆弱性に対するセキュリティ上の懸念が高まっている。
SARに対する物理的バックドアアタックの最初の調査であるPhysical Skeleton Backdoor Attacks (PSBA)を紹介した。
- 参考スコア(独自算出の注目度): 21.261855773907616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton Action Recognition (SAR) has attracted significant interest for its efficient representation of the human skeletal structure. Despite its advancements, recent studies have raised security concerns in SAR models, particularly their vulnerability to adversarial attacks. However, such strategies are limited to digital scenarios and ineffective in physical attacks, limiting their real-world applicability. To investigate the vulnerabilities of SAR in the physical world, we introduce the Physical Skeleton Backdoor Attacks (PSBA), the first exploration of physical backdoor attacks against SAR. Considering the practicalities of physical execution, we introduce a novel trigger implantation method that integrates infrequent and imperceivable actions as triggers into the original skeleton data. By incorporating a minimal amount of this manipulated data into the training set, PSBA enables the system misclassify any skeleton sequences into the target class when the trigger action is present. We examine the resilience of PSBA in both poisoned and clean-label scenarios, demonstrating its efficacy across a range of datasets, poisoning ratios, and model architectures. Additionally, we introduce a trigger-enhancing strategy to strengthen attack performance in the clean label setting. The robustness of PSBA is tested against three distinct backdoor defenses, and the stealthiness of PSBA is evaluated using two quantitative metrics. Furthermore, by employing a Kinect V2 camera, we compile a dataset of human actions from the real world to mimic physical attack situations, with our findings confirming the effectiveness of our proposed attacks. Our project website can be found at https://qichenzheng.github.io/psba-website.
- Abstract(参考訳): スケルトン行動認識(SAR)は、ヒト骨格構造の効率的な表現において大きな関心を集めている。
その進歩にもかかわらず、最近の研究はSARモデル、特に敵の攻撃に対する脆弱性に対するセキュリティ上の懸念を高めている。
しかし、このような戦略はデジタルシナリオに限られており、物理的な攻撃では有効ではないため、現実の応用性が制限される。
物理界におけるSARの脆弱性を調べるため,SARに対する物理的バックドア攻撃を最初に調査した物理骨格バックドア攻撃(PSBA)を紹介した。
身体的実行の実用性を考えると,本研究では,創傷として頻繁で知覚不能な動作を,元の骨格データに組み込む新しいトリガ注入法を提案する。
この操作されたデータの最小限の量をトレーニングセットに組み込むことで、PSBAはトリガーアクションが存在する場合、システムが任意のスケルトンシーケンスをターゲットクラスに誤分類できるようにする。
有毒およびクリーンラベルの両方のシナリオにおけるPSBAのレジリエンスについて検討し、その効果をさまざまなデータセット、有毒比、モデルアーキテクチャで実証する。
さらに,クリーンラベル設定における攻撃性能を高めるためのトリガーエンハンシング戦略を導入する。
PSBAのロバスト性は3つの異なるバックドアディフェンスに対して試験され、PSBAのステルス性は2つの定量的指標を用いて評価された。
さらに、Kinect V2カメラを用いることで、実世界の人間の行動のデータセットをコンパイルし、物理的な攻撃状況を模倣し、提案した攻撃の有効性を確認した。
プロジェクトのWebサイトはhttps://qichenzheng.github.io/psba-website.orgにある。
関連論文リスト
- DiffPhysBA: Diffusion-based Physical Backdoor Attack against Person Re-Identification in Real-World [37.766746270067834]
個人再識別システム(ReID)は、バックドア攻撃による重大なセキュリティリスクを引き起こし、敵の追跡や不正行為を回避する。
本稿では、ReIDモデルがデジタルドメインで収集されたデータに基づいて訓練され、物理的環境に展開される実際のシナリオにおいて、バックドア攻撃がどのように展開されるかを検討する。
本稿では, トレーニング不要な類似性誘導サンプリングプロセスを採用し, 生成したトリガと物理トリガの類似性を高める新しい拡散型物理バックドアアタック(DiffPhysBA)手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:22:06Z) - Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS [2.632261166782093]
IDSの第1の枠組みは, ジョイント中毒や回避攻撃に対して堅牢である。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
論文 参考訳(メタデータ) (2024-05-05T16:24:30Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Demystifying Poisoning Backdoor Attacks from a Statistical Perspective [35.30533879618651]
バックドア攻撃は、そのステルス性や潜在的に深刻な影響により、重大なセキュリティリスクを引き起こす。
本稿では,一定のトリガを組み込んだバックドア攻撃の有効性を評価する。
我々の導出した理解は、識別モデルと生成モデルの両方に適用できる。
論文 参考訳(メタデータ) (2023-10-16T19:35:01Z) - HINT: Healthy Influential-Noise based Training to Defend against Data
Poisoning Attacks [12.929357709840975]
本研究では,影響関数に基づくデータ中毒攻撃を効果的かつ堅牢に防ぐためのトレーニング手法を提案する。
影響関数を用いて、有害な攻撃に対する分類モデルを強化するのに役立つ健全なノイズを創出する。
実験の結果,HINTは非標的および標的の毒殺攻撃の効果に対して,ディープラーニングモデルを効果的に保護できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:12:19Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z) - Systematic Evaluation of Backdoor Data Poisoning Attacks on Image
Classifiers [6.352532169433872]
コンピュータビジョン研究において、機械学習(ML)システムの潜在的な安全性リスクとして、バックドアデータ中毒攻撃が実証されている。
我々の研究は、ML画像分類器のための事前のバックドアデータポゾン研究に基づいている。
有毒なモデルでは、パフォーマンス検査だけでは検出が難しいことが分かりました。
論文 参考訳(メタデータ) (2020-04-24T02:58:22Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。