論文の概要: FrameShield: Adversarially Robust Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2510.21532v1
- Date: Fri, 24 Oct 2025 14:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.435447
- Title: FrameShield: Adversarially Robust Video Anomaly Detection
- Title(参考訳): FrameShield:逆向きにロバストなビデオ異常検出
- Authors: Mojtaba Nafez, Mobina Poulaei, Nikan Vasei, Bardia Soltani Moakhar, Mohammad Sabokrou, MohammadHossein Rohban,
- Abstract要約: Weakly Supervised Video Anomaly Detection (WSVAD)は目覚ましい進歩を遂げているが、既存のモデルは敵攻撃に弱いままであり、信頼性が制限されている。
本研究では、時間的整合性を維持しつつ、通常のビデオの局所化領域に重篤な拡張を加えて合成異常を生成する「時空間歪み(Spatiotemporal Region Distortion, SRD)」と呼ばれる新しい擬似異常生成手法を提案する。
提案手法は,WSVADモデルの敵攻撃に対するロバスト性を大幅に向上させ,複数のベンチマークでAUROC全体のパフォーマンスを平均71.0%向上させる。
- 参考スコア(独自算出の注目度): 16.21127415496373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weakly Supervised Video Anomaly Detection (WSVAD) has achieved notable advancements, yet existing models remain vulnerable to adversarial attacks, limiting their reliability. Due to the inherent constraints of weak supervision, where only video-level labels are provided despite the need for frame-level predictions, traditional adversarial defense mechanisms, such as adversarial training, are not effective since video-level adversarial perturbations are typically weak and inadequate. To address this limitation, pseudo-labels generated directly from the model can enable frame-level adversarial training; however, these pseudo-labels are inherently noisy, significantly degrading performance. We therefore introduce a novel Pseudo-Anomaly Generation method called Spatiotemporal Region Distortion (SRD), which creates synthetic anomalies by applying severe augmentations to localized regions in normal videos while preserving temporal consistency. Integrating these precisely annotated synthetic anomalies with the noisy pseudo-labels substantially reduces label noise, enabling effective adversarial training. Extensive experiments demonstrate that our method significantly enhances the robustness of WSVAD models against adversarial attacks, outperforming state-of-the-art methods by an average of 71.0\% in overall AUROC performance across multiple benchmarks. The implementation and code are publicly available at https://github.com/rohban-lab/FrameShield.
- Abstract(参考訳): Weakly Supervised Video Anomaly Detection (WSVAD)は目覚ましい進歩を遂げているが、既存のモデルは敵攻撃に弱いままであり、信頼性が制限されている。
フレームレベルの予測を必要とするにもかかわらず、ビデオレベルのラベルしか提供されない弱い監督の制約のため、従来の対人防御機構(例えば、対人訓練)は、通常、ビデオレベルの対人摂動が弱く不適切なため、効果がない。
この制限に対処するために、モデルから直接生成された擬似ラベルは、フレームレベルの逆行訓練を可能にするが、これらの擬似ラベルは本質的にノイズが多く、性能が著しく低下する。
そこで本稿では,時間的整合性を維持しつつ,通常のビデオの局所化領域に重篤な拡張を加えて合成異常を生成する,SRD(Spatiotemporal Region Distortion)と呼ばれる新しい擬似異常生成手法を提案する。
これらの正確な注釈付き合成異常をノイズのある擬似ラベルと組み合わせることで、ラベルノイズを大幅に低減し、効果的な対向訓練を可能にする。
大規模な実験により,WSVADモデルの敵攻撃に対するロバスト性を著しく向上し,複数のベンチマークでAUROC全体の性能を平均71.0\%向上させた。
実装とコードはhttps://github.com/rohban-lab/FrameShield.comで公開されている。
関連論文リスト
- Combating Noisy Labels via Dynamic Connection Masking [31.78040205653134]
MLP(Multi-Layer Perceptron Networks)とKAN(Kolmogorov-Arnold Networks)のための動的接続マスキング(DCM)機構を提案する。
我々のアプローチは、より堅牢なディープネットワークを構築するために、様々なノイズロストトレーニング手法にシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-13T10:51:46Z) - Self Forcing: Bridging the Train-Test Gap in Autoregressive Video Diffusion [70.4360995984905]
本稿では,自己回帰ビデオ拡散モデルのための新しい訓練パラダイムであるSelf Forcingを紹介する。
露光バイアスの長年の問題に対処し、地道的な文脈で訓練されたモデルは、自身の不完全な出力で条件付けられたシーケンスを生成する必要がある。
論文 参考訳(メタデータ) (2025-06-09T17:59:55Z) - A Few Large Shifts: Layer-Inconsistency Based Minimal Overhead Adversarial Example Detection [13.109309606764754]
我々は、ターゲットモデル自体の内部の階層的不整合を利用するプラグイン検出フレームワークを導入する。
本手法は計算オーバーヘッドを無視して最先端検出性能を実現する。
論文 参考訳(メタデータ) (2025-05-19T00:48:53Z) - GRILL: Gradient Signal Restoration in Ill-Conditioned Layers to Enhance Adversarial Attacks on Autoencoders [4.046100165562807]
GRILLは、不条件層における勾配信号を復元し、より効果的なノルムバウンド攻撃を可能にする手法である。
本手法は敵攻撃の有効性を著しく向上させ,より厳密なAEロバスト性評価を可能にした。
論文 参考訳(メタデータ) (2025-05-06T15:52:14Z) - Confidence-aware Denoised Fine-tuning of Off-the-shelf Models for Certified Robustness [56.2479170374811]
我々はFT-CADIS(Fun Fine-Tuning with Confidence-Aware Denoized Image Selection)を紹介する。
FT-CADISは、既成の分類器の信頼性が、視覚的平滑化中の幻覚像を効果的に識別できるという観察に着想を得たものである。
様々なベンチマークにおいて、すべての$ell$-adversary半径にわたる偏微分平滑化法のうち、最先端の証明されたロバスト性を確立している。
論文 参考訳(メタデータ) (2024-11-13T09:13:20Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。