論文の概要: Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition
- arxiv url: http://arxiv.org/abs/2005.07151v2
- Date: Sat, 6 Jun 2020 15:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:39:41.863950
- Title: Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition
- Title(参考訳): スケルトンベース行動認識の敵意的脆弱性の解明に向けて
- Authors: Tianhang Zheng, Sheng Liu, Changyou Chen, Junsong Yuan, Baochun Li,
Kui Ren
- Abstract要約: 骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
- 参考スコア(独自算出の注目度): 133.35968094967626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton-based action recognition has attracted increasing attention due to
its strong adaptability to dynamic circumstances and potential for broad
applications such as autonomous and anonymous surveillance. With the help of
deep learning techniques, it has also witnessed substantial progress and
currently achieved around 90\% accuracy in benign environment. On the other
hand, research on the vulnerability of skeleton-based action recognition under
different adversarial settings remains scant, which may raise security concerns
about deploying such techniques into real-world systems. However, filling this
research gap is challenging due to the unique physical constraints of skeletons
and human actions. In this paper, we attempt to conduct a thorough study
towards understanding the adversarial vulnerability of skeleton-based action
recognition. We first formulate generation of adversarial skeleton actions as a
constrained optimization problem by representing or approximating the
physiological and physical constraints with mathematical formulations. Since
the primal optimization problem with equality constraints is intractable, we
propose to solve it by optimizing its unconstrained dual problem using ADMM. We
then specify an efficient plug-in defense, inspired by recent theories and
empirical observations, against the adversarial skeleton actions. Extensive
evaluations demonstrate the effectiveness of the attack and defense method
under different settings.
- Abstract(参考訳): スケルトンベースの行動認識は、動的状況に強い適応性と、自律監視や匿名監視といった幅広い応用の可能性から、注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境では90%の精度で達成されています。
一方で、異なる敵設定下でのスケルトンベースのアクション認識の脆弱性に関する研究は、まだ乏しいままであり、現実のシステムへの展開に関するセキュリティ上の懸念が高まる可能性がある。
しかし、この研究ギャップを埋めることは、骨格と人間の行動のユニークな物理的制約のために困難である。
本稿では,スケルトンベース行動認識の敵意的脆弱性を理解するための徹底的な研究を行う。
まず, 物理・生理的制約を数学的定式化で表現・近似することにより, 対向骨格行動の生成を制約付き最適化問題として定式化する。
等式制約を持つ主最適化問題は難解であるため,ADMMを用いて制約のない双対問題を最適化し,その解法を提案する。
次に,最近の理論や経験的観察から着想を得た効率的なプラグイン防御法を提案する。
広範囲な評価は、異なる設定下での攻撃および防御方法の有効性を示す。
関連論文リスト
- ExAL: An Exploration Enhanced Adversarial Learning Algorithm [0.0]
探索強化適応学習アルゴリズム(ExAL)を提案する。
ExALは探索駆動機構を統合し、モデル決定境界への影響を最大化する摂動を発見する。
MNISTの手書きディジットとBlended Malwareデータセット上でのExALの性能を評価する。
論文 参考訳(メタデータ) (2024-11-24T15:37:29Z) - Emotion Loss Attacking: Adversarial Attack Perception for Skeleton based on Multi-dimensional Features [6.241047489413293]
骨格運動に対する行動認識器を攻撃するための新しい攻撃法を提案する。
本手法は骨格運動の差を測定するために動的距離関数を体系的に提案する。
我々は、感情的特徴の有効性を初めて証明し、骨格運動間の距離を測定するための新しいアイデアを提供する。
論文 参考訳(メタデータ) (2024-06-28T10:45:37Z) - Exploring the Adversarial Frontier: Quantifying Robustness via Adversarial Hypervolume [17.198794644483026]
本稿では,様々な摂動強度に対して総合的に深層学習モデルの頑健性を評価するための,対向超体積と呼ばれる新しい計量法を提案する。
我々は,様々な摂動強度の対向的堅牢性を均一に向上する新しいトレーニングアルゴリズムを採用する。
本研究はロバスト性の新しい尺度に寄与し、敵の脅威に対するベンチマーク評価と、現在および将来の防御モデルのレジリエンスの基準を確立する。
論文 参考訳(メタデータ) (2024-03-08T07:03:18Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Mitigating Adversarial Vulnerability through Causal Parameter Estimation
by Adversarial Double Machine Learning [33.18197518590706]
視覚入力に対する故意に作られた摂動から導かれる敵の例は、ディープニューラルネットワークの決定プロセスに容易に害を与える可能性がある。
本稿では,adversarial Double Machine Learning (ADML) と呼ばれる因果的アプローチを導入する。
ADMLは, 対向的摂動の因果パラメータを直接推定し, 強靭性を損なう可能性のある負の効果を緩和することができる。
論文 参考訳(メタデータ) (2023-07-14T09:51:26Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。