論文の概要: Invisibility Cloak: Disappearance under Human Pose Estimation via Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2410.07670v1
- Date: Thu, 10 Oct 2024 07:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 15:36:27.143512
- Title: Invisibility Cloak: Disappearance under Human Pose Estimation via Backdoor Attacks
- Title(参考訳): Invisibility Cloak: バックドアアタックによる人間の姿勢推定による失明
- Authors: Minxing Zhang, Michael Backes, Xiao Zhang,
- Abstract要約: HPE(Human Pose Estimation)は、自動運転車などの自律システムに広く応用されている。
ラベルの異なるIntCフレームワークに基づく3つの特定のバックドア攻撃を提案する。
IntC法の有効性と一般化性を示す実験を行った。
- 参考スコア(独自算出の注目度): 22.00283527210342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Pose Estimation (HPE) has been widely applied in autonomous systems such as self-driving cars. However, the potential risks of HPE to adversarial attacks have not received comparable attention with image classification or segmentation tasks. Existing works on HPE robustness focus on misleading an HPE system to provide wrong predictions that still indicate some human poses. In this paper, we study the vulnerability of HPE systems to disappearance attacks, where the attacker aims to subtly alter the HPE training process via backdoor techniques so that any input image with some specific trigger will not be recognized as involving any human pose. As humans are typically at the center of HPE systems, such attacks can induce severe security hazards, e.g., pedestrians' lives will be threatened if a self-driving car incorrectly understands the front scene due to disappearance attacks. To achieve the adversarial goal of disappearance, we propose IntC, a general framework to craft Invisibility Cloak in the HPE domain. The core of our work lies in the design of target HPE labels that do not represent any human pose. In particular, we propose three specific backdoor attacks based on our IntC framework with different label designs. IntC-S and IntC-E, respectively designed for regression- and heatmap-based HPE techniques, concentrate the keypoints of triggered images in a tiny, imperceptible region. Further, to improve the attack's stealthiness, IntC-L designs the target poisons to capture the label outputs of typical landscape images without a human involved, achieving disappearance and reducing detectability simultaneously. Extensive experiments demonstrate the effectiveness and generalizability of our IntC methods in achieving the disappearance goal. By revealing the vulnerability of HPE to disappearance and backdoor attacks, we hope our work can raise awareness of the potential risks ...
- Abstract(参考訳): HPE(Human Pose Estimation)は、自動運転車などの自律システムに広く応用されている。
しかし、HPEの敵対的攻撃に対する潜在的なリスクは、画像分類やセグメンテーションタスクと同等の注意を払っていない。
HPEのロバスト性に関する既存の研究は、HPEシステムの誤解を招くことに重点を置いている。
本稿では,特定のトリガを持つ任意の入力画像が人間のポーズを伴わないよう,バックドア技術を用いてHPEトレーニングプロセスを微妙に変更することを目的とした,消失攻撃に対するHPEシステムの脆弱性について検討する。
人間は通常、HPEシステムの中心にいるため、このような攻撃は深刻なセキュリティ上の危険を引き起こす可能性がある。
消失の逆の目標を達成するために,HPEドメインで視認性クロークを構築するための一般的なフレームワークであるIntCを提案する。
私たちの作業の中核は、人間のポーズを表現しないターゲットのHPEラベルの設計にあります。
特に,ラベルの異なるIntCフレームワークに基づく3つの特定のバックドア攻撃を提案する。
IntC-SとIntC-Eは、それぞれ回帰と熱マップに基づくHPE技術のために設計されており、トリガ画像のキーポイントを小さな非受容領域に集中させる。
さらに、攻撃のステルス性を改善するため、IntC-Lは標的の毒を設計し、人間の関与なしに典型的な風景画像のラベル出力を捕捉し、同時に消失と検出可能性の低下を図った。
IntC法の有効性と一般化性を示す実験を行った。
HPEの脆弱性を消失やバックドア攻撃で明らかにすることで、私たちの仕事が潜在的なリスクに対する認識を高めることを願っています。
関連論文リスト
- Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - Invisible Backdoor Attack Through Singular Value Decomposition [2.681558084723648]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ脅威をもたらす
トリガーを知覚しにくく、知覚できないものにするため、様々な目に見えないバックドア攻撃が提案されている。
本稿では,DEBAと呼ばれる目に見えないバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T13:25:12Z) - Impart: An Imperceptible and Effective Label-Specific Backdoor Attack [15.859650783567103]
我々は,攻撃者が被害者モデルにアクセスできないシナリオにおいて,Impartという新たな非知覚的なバックドア攻撃フレームワークを提案する。
具体的には、オール・ツー・オール・セッティングの攻撃能力を高めるために、まずラベル固有の攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T07:22:56Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。