論文の概要: Black-box Adversaries from Latent Space: Unnoticeable Attacks on Human Pose and Shape Estimation
- arxiv url: http://arxiv.org/abs/2505.12009v1
- Date: Sat, 17 May 2025 14:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.988032
- Title: Black-box Adversaries from Latent Space: Unnoticeable Attacks on Human Pose and Shape Estimation
- Title(参考訳): 潜在空間からのブラックボックス・アドベナリー:人間の詩と形状推定に対する無意味な攻撃
- Authors: Zhiying Li, Guanggang Geng, Yeying Jin, Zhizhi Guo, Bruce Gu, Jidong Huo, Zhaoxin Fan, Wenjun Wu,
- Abstract要約: 本稿では,EHPSモデルに対する新規なUnnoticeable Black-Box Attack (UBA)を提案する。
UBAは、自然な画像の潜在空間表現を利用して、最適な対向雑音パターンを生成する。
UBAはEHPSモデルのポーズ推定誤差を平均17.27%-58.21%増加させ、重大な脆弱性を明らかにしている。
- 参考スコア(独自算出の注目度): 9.436103046529764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Expressive human pose and shape (EHPS) estimation is vital for digital human generation, particularly in live-streaming applications. However, most existing EHPS models focus primarily on minimizing estimation errors, with limited attention on potential security vulnerabilities. Current adversarial attacks on EHPS models often require white-box access (e.g., model details or gradients) or generate visually conspicuous perturbations, limiting their practicality and ability to expose real-world security threats. To address these limitations, we propose a novel Unnoticeable Black-Box Attack (UBA) against EHPS models. UBA leverages the latent-space representations of natural images to generate an optimal adversarial noise pattern and iteratively refine its attack potency along an optimized direction in digital space. Crucially, this process relies solely on querying the model's output, requiring no internal knowledge of the EHPS architecture, while guiding the noise optimization toward greater stealth and effectiveness. Extensive experiments and visual analyses demonstrate the superiority of UBA. Notably, UBA increases the pose estimation errors of EHPS models by 17.27%-58.21% on average, revealing critical vulnerabilities. These findings underscore the urgent need to address and mitigate security risks associated with digital human generation systems.
- Abstract(参考訳): 表現的な人間のポーズと形状(EHPS)の推定は、特にライブストリーミングアプリケーションにおいて、デジタルヒューマンジェネレーションに不可欠である。
しかしながら、既存のEHPSモデルのほとんどは、潜在的なセキュリティ脆弱性に限定して、推定エラーの最小化に重点を置いている。
EHPSモデルに対する現在の敵攻撃は、しばしばホワイトボックスアクセス(例えば、モデルの詳細または勾配)を必要とし、視覚的に目立った摂動を生成し、現実のセキュリティ脅威を露呈する実用性と能力を制限する。
これらの制約に対処するため、EHPSモデルに対する新規なUnnoticeable Black-Box Attack (UBA)を提案する。
UBAは、自然な画像の潜時空間表現を活用して、最適な逆方向ノイズパターンを生成し、デジタル空間の最適化方向に沿って攻撃能力を反復的に洗練する。
重要な点として、このプロセスは、EHPSアーキテクチャの内部知識を必要とせず、ノイズ最適化をよりステルスと有効性に導くことで、モデルの出力を問い合わせることにのみ依存する。
広汎な実験と視覚分析は、UBAの優位性を示している。
特に、UBAはEHPSモデルのポーズ推定誤差を平均17.27%-58.21%増加させ、重大な脆弱性を明らかにしている。
これらの知見は、デジタル・ヒューマン・ジェネレーション・システムに関連するセキュリティリスクに対処し軽減する緊急の必要性を浮き彫りにしている。
関連論文リスト
- Unveiling Hidden Vulnerabilities in Digital Human Generation via Adversarial Attacks [14.356235723912564]
本稿では,デジタル・ヒューマン・ジェネレーション・モデルを効果的に実現可能な,敵対的な例を生成するための新しいフレームワークを提案する。
本手法では、可変オートエンコーダ(VAE)と制御ネットを利用して、元の画像の特徴に合わせた多様なターゲットノイズを生成する。
大規模な実験では、TBAの優位性を示し、推定誤差が41.0%増加し、平均改善率は17.0%に達した。
論文 参考訳(メタデータ) (2025-04-24T11:42:10Z) - Backdoor Defense in Diffusion Models via Spatial Attention Unlearning [0.0]
テキストと画像の拡散モデルは、バックドア攻撃に対してますます脆弱である。
本研究では,拡散モデルにおけるバックドア攻撃を緩和する新しい手法である空間注意アンラーニング(SAU)を提案する。
論文 参考訳(メタデータ) (2025-04-21T04:00:19Z) - SAP-DIFF: Semantic Adversarial Patch Generation for Black-Box Face Recognition Models via Diffusion Models [4.970240615354004]
敵対的妨害によって攻撃者は正当性を装うことができるため、偽装攻撃は重大な脅威となる。
そこで本研究では,直接画素操作ではなく,潜在空間における意味摂動による逆パッチ生成手法を提案する。
提案手法は,平均攻撃成功率を45.66%向上させ,クエリ数を約40%削減する。
論文 参考訳(メタデータ) (2025-02-27T02:57:29Z) - Perturb, Attend, Detect and Localize (PADL): Robust Proactive Image Defense [5.150608040339816]
本稿では,クロスアテンションに基づく符号化と復号の対称スキームを用いて,画像固有の摂動を生成する新しいソリューションであるPADLを紹介する。
提案手法は,StarGANv2,BlendGAN,DiffAE,StableDiffusion,StableDiffusionXLなど,さまざまなアーキテクチャ設計の未確認モデルに一般化する。
論文 参考訳(メタデータ) (2024-09-26T15:16:32Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - EmergencyNet: Efficient Aerial Image Classification for Drone-Based
Emergency Monitoring Using Atrous Convolutional Feature Fusion [8.634988828030245]
本稿では,緊急対応・監視用uavの航空機画像の効率的な分類について述べる。
緊急対応アプリケーションのための専用空中画像データベースを導入し、既存のアプローチの比較分析を行う。
マルチレゾリューション機能を処理するために,アトラス畳み込みに基づく軽量畳み込みニューラルネットワークアーキテクチャが提案されている。
論文 参考訳(メタデータ) (2021-04-28T20:24:10Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。