論文の概要: Fourier Analysis on Robustness of Graph Convolutional Neural Networks
for Skeleton-based Action Recognition
- arxiv url: http://arxiv.org/abs/2305.17939v1
- Date: Mon, 29 May 2023 08:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 15:49:07.184928
- Title: Fourier Analysis on Robustness of Graph Convolutional Neural Networks
for Skeleton-based Action Recognition
- Title(参考訳): スケルトンベース行動認識のためのグラフ畳み込みニューラルネットワークのロバスト性に関するフーリエ解析
- Authors: Nariki Tanaka, Hiroshi Kera, Kazuhiko Kawamoto
- Abstract要約: 骨格に基づく行動認識のためのグラフ畳み込みニューラルネットワーク(GCN)の堅牢性と脆弱性について検討する。
我々は,敵対的攻撃や共通の腐敗に対して,敵対的訓練を受けたGCNの堅牢性を検討するために,ジョイントフーリエ変換を採用する。
- 参考スコア(独自算出の注目度): 3.480626767752489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using Fourier analysis, we explore the robustness and vulnerability of graph
convolutional neural networks (GCNs) for skeleton-based action recognition. We
adopt a joint Fourier transform (JFT), a combination of the graph Fourier
transform (GFT) and the discrete Fourier transform (DFT), to examine the
robustness of adversarially-trained GCNs against adversarial attacks and common
corruptions. Experimental results with the NTU RGB+D dataset reveal that
adversarial training does not introduce a robustness trade-off between
adversarial attacks and low-frequency perturbations, which typically occurs
during image classification based on convolutional neural networks. This
finding indicates that adversarial training is a practical approach to
enhancing robustness against adversarial attacks and common corruptions in
skeleton-based action recognition. Furthermore, we find that the Fourier
approach cannot explain vulnerability against skeletal part occlusion
corruption, which highlights its limitations. These findings extend our
understanding of the robustness of GCNs, potentially guiding the development of
more robust learning methods for skeleton-based action recognition.
- Abstract(参考訳): フーリエ解析を用いて、骨格に基づく行動認識のためのグラフ畳み込みニューラルネットワーク(GCN)の堅牢性と脆弱性について検討する。
我々は,グラフフーリエ変換 (GFT) と離散フーリエ変換 (DFT) の組み合わせであるジョイントフーリエ変換 (JFT) を採用し,敵対的攻撃や共通の腐敗に対して,敵対的に訓練されたGCNの堅牢性を検討する。
NTU RGB+Dデータセットによる実験結果から,畳み込みニューラルネットワークに基づく画像分類において通常発生する,敵対的攻撃と低周波摂動の堅牢性トレードオフは導入されないことが明らかとなった。
この知見は, 敵意攻撃に対するロバスト性を高めるための実践的アプローチであり, スケルトンベース行動認識における共通の腐敗を示唆する。
さらに,Fourierアプローチでは,骨格部閉塞症に対する脆弱性を説明できないことが判明した。
これらの知見はGCNの堅牢性に対する理解を深め、骨格に基づく行動認識のためのより堅牢な学習手法の開発を導く可能性がある。
関連論文リスト
- Adversarial Training Can Provably Improve Robustness: Theoretical Analysis of Feature Learning Process Under Structured Data [38.44734564565478]
本稿では, 特徴学習理論の観点から, 対角的例と対角的学習アルゴリズムの理論的理解を提供する。
本手法は,頑健な特徴学習を効果的に強化し,非ロバストな特徴学習を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-10-11T03:59:49Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Advanced Financial Fraud Detection Using GNN-CL Model [13.5240775562349]
本稿では,金融不正検出の分野において,革新的なGNN-CLモデルを提案する。
グラフニューラルネットワーク(gnn)、畳み込みニューラルネットワーク(cnn)、長期記憶(LSTM)の利点を組み合わせる。
本稿では,マルチ層パーセプトロン(MLPS)を用いてノードの類似性を推定する。
論文 参考訳(メタデータ) (2024-07-09T03:59:06Z) - Compositional Curvature Bounds for Deep Neural Networks [7.373617024876726]
安全クリティカルなアプリケーションにおけるニューラルネットワークの普及を脅かす重要な課題は、敵の攻撃に対する脆弱性である。
本研究では, 連続的に微分可能な深層ニューラルネットワークの2次挙動について検討し, 対向摂動に対する堅牢性に着目した。
ニューラルネットワークの第2微分の証明可能な上界を解析的に計算する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T17:50:15Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Investigating Adversarial Vulnerability and Implicit Bias through Frequency Analysis [0.3985805843651649]
本研究では,これらの摂動と,勾配に基づくアルゴリズムで学習したニューラルネットワークの暗黙バイアスとの関係について検討する。
入力画像のそれぞれに対して, 正確な分類や誤分類に必要な最小かつ最も重要な周波数を, 逆摂動バージョンで同定する。
その結果,Fourier空間のネットワークバイアスと敵攻撃の標的周波数は高い相関性を示し,新たな敵防御戦略が示唆された。
論文 参考訳(メタデータ) (2023-05-24T14:40:23Z) - Fourier Sensitivity and Regularization of Computer Vision Models [11.79852671537969]
本稿では,ディープニューラルネットワークの周波数感度特性について,原理的アプローチを用いて検討する。
コンピュータビジョンモデルは、データセット、トレーニング方法、アーキテクチャに依存する特定の周波数に一貫して敏感であることがわかった。
論文 参考訳(メタデータ) (2023-01-31T10:05:35Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。