論文の概要: Defending Black-box Skeleton-based Human Activity Classifiers
- arxiv url: http://arxiv.org/abs/2203.04713v1
- Date: Wed, 9 Mar 2022 13:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 22:33:36.824554
- Title: Defending Black-box Skeleton-based Human Activity Classifiers
- Title(参考訳): ブラックボックス型骨格型ヒューマンアクティビティ分類器
- Authors: He Wang, Yunfeng Diao, Zichang Tan, Guodong Guo
- Abstract要約: 本稿では,人骨をベースとした人間行動認識について検討する。これは時系列データの重要なタイプであるが,攻撃に対する防御には不十分である。
BEATは単純だがエレガントで、脆弱なブラックボックス分類器を精度を犠牲にすることなく堅牢なものにします。
- 参考スコア(独自算出の注目度): 38.95979614080714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has been regarded as the `go to' solution for many tasks today,
but its intrinsic vulnerability to malicious attacks has become a major
concern. The vulnerability is affected by a variety of factors including
models, tasks, data, and attackers. Consequently, methods such as Adversarial
Training and Randomized Smoothing have been proposed to tackle the problem in a
wide range of applications. In this paper, we investigate skeleton-based Human
Activity Recognition, which is an important type of time-series data but
under-explored in defense against attacks. Our method is featured by (1) a new
Bayesian Energy-based formulation of robust discriminative classifiers, (2) a
new parameterization of the adversarial sample manifold of actions, and (3) a
new post-train Bayesian treatment on both the adversarial samples and the
classifier. We name our framework Bayesian Energy-based Adversarial Training or
BEAT. BEAT is straightforward but elegant, which turns vulnerable black-box
classifiers into robust ones without sacrificing accuracy. It demonstrates
surprising and universal effectiveness across a wide range of action
classifiers and datasets, under various attacks.
- Abstract(参考訳): ディープラーニングは多くのタスクにおいて ‘go to’ ソリューションと見なされているが、悪意のある攻撃に対する本質的な脆弱性が大きな懸念となっている。
この脆弱性は、モデル、タスク、データ、攻撃者など、さまざまな要因に影響を受けている。
その結果,様々な応用において,適応学習やランダム化平滑化といった手法が提案されている。
本稿では,時系列データとして重要でありながら,攻撃に対する防御が不十分なスケルトンに基づく人間行動認識について検討する。
本手法は,(1)頑健な識別型分類器のベイズエネルギーに基づく新しい定式化,(2)逆方向のサンプル多様体の新しいパラメータ化,(3)逆方向のサンプルと分類器の両方に対する新しいベイズ処理によって特徴付けられる。
我々は,ベイズエネルギーをベースとした競争訓練(BEAT)の枠組みを命名した。
BEATは単純だがエレガントで、脆弱性のあるブラックボックス分類器を精度を犠牲にすることなく堅牢なものに変える。
様々な攻撃の下で、幅広いアクション分類器やデータセットにまたがる驚くべき、普遍的な効果を示す。
関連論文リスト
- Defending Black-box Classifiers by Bayesian Boundary Correction [11.54107470827685]
脆弱なディープニューラルネットワークのための新しいブラックボックス防御フレームワークを提案する。
事前訓練された分類器を、モデル固有の知識がほとんどないレジリエントな分類器に変えることができる。
さらに、犠牲者を無傷に保つ新しいポストトレイン戦略も装備されている。
論文 参考訳(メタデータ) (2023-06-29T14:33:20Z) - Understanding the Vulnerability of Skeleton-based Human Activity
Recognition via Black-box Attack [41.04797759476035]
骨格に基づくヒト活動認識(HAR)における最初のブラックボックス対逆攻撃手法を提案する。
BASARは分類境界と自然運動多様体の間の相互作用を探索する。
BASARは、分類器、緩和、攻撃モードにまたがって攻撃を成功させることができることを示す。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。