論文の概要: Adversarial Bone Length Attack on Action Recognition
- arxiv url: http://arxiv.org/abs/2109.05830v1
- Date: Mon, 13 Sep 2021 09:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 16:12:43.888104
- Title: Adversarial Bone Length Attack on Action Recognition
- Title(参考訳): 行動認識における対人骨長攻撃
- Authors: Nariki Tanaka, Hiroshi Kera, Kazuhiko Kawamoto
- Abstract要約: 本研究では,骨格に基づく行動認識モデルを用いて,敵対的攻撃を行うことができることを示す。
具体的には、骨の長さに摂動を制限し、敵がおよそ30の有効次元を操作できるようにします。
- 参考スコア(独自算出の注目度): 4.9631159466100305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton-based action recognition models have recently been shown to be
vulnerable to adversarial attacks. Compared to adversarial attacks on images,
perturbations to skeletons are typically bounded to a lower dimension of
approximately 100 per frame. This lower-dimensional setting makes it more
difficult to generate imperceptible perturbations. Existing attacks resolve
this by exploiting the temporal structure of the skeleton motion so that the
perturbation dimension increases to thousands. In this paper, we show that
adversarial attacks can be performed on skeleton-based action recognition
models, even in a significantly low-dimensional setting without any temporal
manipulation. Specifically, we restrict the perturbations to the lengths of the
skeleton's bones, which allows an adversary to manipulate only approximately 30
effective dimensions. We conducted experiments on the NTU RGB+D and HDM05
datasets and demonstrate that the proposed attack successfully deceived models
with sometimes greater than 90\% success rate by small perturbations.
Furthermore, we discovered an interesting phenomenon: in our low-dimensional
setting, the adversarial training with the bone length attack shares a similar
property with data augmentation, and it not only improves the adversarial
robustness but also improves the classification accuracy on the original
original data. This is an interesting counterexample of the trade-off between
adversarial robustness and clean accuracy, which has been widely observed in
studies on adversarial training in the high-dimensional regime.
- Abstract(参考訳): 骨格に基づく行動認識モデルは、最近敵の攻撃に対して脆弱であることが示されている。
画像に対する敵対的な攻撃と比較すると、スケルトンへの摂動は通常、フレーム当たり約100の低次元に制限される。
この低次元の設定により、知覚不能な摂動を生成することがより困難になる。
既存の攻撃では、骨格運動の時間的構造を利用して摂動次元を数千に増やすことでこれを解決している。
本稿では,スケルトンに基づく行動認識モデルにおいて,時間的操作を伴わずに極めて低次元の設定でも逆攻撃が可能であることを示す。
具体的には、骨の長さに摂動を制限し、敵が有効寸法を30程度しか操作できないようにする。
我々は,NTU RGB+DおよびHDM05データセットを用いて実験を行い,小さな摂動による90%以上の成功率を持つモデルに対する攻撃が成功したことを実証した。
また,低次元環境では,骨長アタックを伴う敵意訓練とデータ拡張の類似性が共有され,敵意の頑健性が向上するだけでなく,元のデータの分類精度も向上する,という興味深い現象が得られた。
これは、高次元体制における対向的トレーニングの研究で広く観察されている、対向的堅牢性とクリーンな精度のトレードオフの興味深い反例である。
関連論文リスト
- Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - A Hierarchical Assessment of Adversarial Severity [3.0478504236139528]
大規模データセットであるiNaturalist-Hへのロバストネスと重大度の測定による対向雑音の影響について検討した。
従来の逆行訓練をシンプルながら効果的な階層型カリキュラムトレーニングで強化し,これらのノードを階層型ツリー内で徐々に学習する。
我々は、階層的な防御により、深いモデルによって敵のロバスト性が1.85%向上し、全ての攻撃の重症度が平均0.17減少することを示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-08-26T13:29:17Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。