論文の概要: STEAD: Spatio-Temporal Efficient Anomaly Detection for Time and Compute Sensitive Applications
- arxiv url: http://arxiv.org/abs/2503.07942v1
- Date: Tue, 11 Mar 2025 00:48:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:43:54.700341
- Title: STEAD: Spatio-Temporal Efficient Anomaly Detection for Time and Compute Sensitive Applications
- Title(参考訳): STEAD: 時間・コンピュータ感度アプリケーションのための時空間能動異常検出
- Authors: Andrew Gao, Jun Liu,
- Abstract要約: 本稿では,自律運転などの過敏な要求を時間と計算可能な自動システムにおいて,異常検出のための新しい手法を提案する。
本稿では, (2+1)D ConvolutionsとPerformer Linear Attentionを用いてバックボーンを開発するSTEADを提案する。
我々のベースモデルは91.34%のAUCを達成し、以前の最先端を上回り、高速バージョンは88.87%のAUCを達成し、99.70%のパラメータを減らし、以前の最先端を上回ります。
- 参考スコア(独自算出の注目度): 4.025682447469922
- License:
- Abstract: This paper presents a new method for anomaly detection in automated systems with time and compute sensitive requirements, such as autonomous driving, with unparalleled efficiency. As systems like autonomous driving become increasingly popular, ensuring their safety has become more important than ever. Therefore, this paper focuses on how to quickly and effectively detect various anomalies in the aforementioned systems, with the goal of making them safer and more effective. Many detection systems have been developed with great success under spatial contexts; however, there is still significant room for improvement when it comes to temporal context. While there is substantial work regarding this task, there is minimal work done regarding the efficiency of models and their ability to be applied to scenarios that require real-time inference, i.e., autonomous driving where anomalies need to be detected the moment they are within view. To address this gap, we propose STEAD (Spatio-Temporal Efficient Anomaly Detection), whose backbone is developed using (2+1)D Convolutions and Performer Linear Attention, which ensures computational efficiency without sacrificing performance. When tested on the UCF-Crime benchmark, our base model achieves an AUC of 91.34%, outperforming the previous state-of-the-art, and our fast version achieves an AUC of 88.87%, while having 99.70% less parameters and outperforming the previous state-of-the-art as well. The code and pretrained models are made publicly available at https://github.com/agao8/STEAD
- Abstract(参考訳): 本稿では,自律運転などの過敏な要求に時間と計算を要し,非並列な効率で自動システムの異常検出を行う新しい手法を提案する。
自動運転などのシステムがますます普及するにつれて、安全性の確保がこれまで以上に重要になっている。
そこで本稿では, 上記システムにおける各種異常を迅速かつ効果的に検出する方法に着目し, 安全性と有効性を高めることを目的とする。
多くの検知システムは空間的文脈下で大きな成功を収めてきたが、時間的文脈に関してはまだ改善の余地が残っている。
このタスクについては、かなりの作業があるが、モデルの有効性と、リアルタイムの推論を必要とするシナリオに適用できる能力、すなわち、異常が目に入った瞬間に検出される必要がある自律運転に関する最小限の作業がある。
そこで本研究では, (2+1)D Convolutions と Performer Linear Attention を用いてバックボーンを開発した STEAD (Spatio-Temporal Efficient Anomaly Detection) を提案する。
UCF-Crimeベンチマークでテストすると、我々のベースモデルは91.34%のAUCを達成し、以前の最先端を上回り、高速バージョンは88.87%のAUCを達成し、99.70%のパラメータを減らし、以前の最先端を上回ります。
コードと事前訓練されたモデルはhttps://github.com/agao8/STEADで公開されている。
関連論文リスト
- P-YOLOv8: Efficient and Accurate Real-Time Detection of Distracted Driving [0.0]
引き離された運転は重大な安全上の問題であり、世界中で多くの死者と負傷につながっている。
本研究では、注意をそらされた運転行動を検出するための効率的でリアルタイムな機械学習モデルの必要性に対処する。
リアルタイムオブジェクト検出システムを導入し、速度と精度の両方に最適化する。
論文 参考訳(メタデータ) (2024-10-21T02:56:44Z) - YOLO-ELA: Efficient Local Attention Modeling for High-Performance Real-Time Insulator Defect Detection [0.0]
無人航空機からの絶縁体欠陥検出のための既存の検出方法は、複雑な背景や小さな物体と競合する。
本稿では,この課題に対処するため,新しい注目基盤アーキテクチャであるYOLO-ELAを提案する。
高分解能UAV画像による実験結果から,本手法は96.9% mAP0.5,リアルタイム検出速度74.63フレーム/秒を実現した。
論文 参考訳(メタデータ) (2024-10-15T16:00:01Z) - REST: Efficient and Accelerated EEG Seizure Analysis through Residual State Updates [54.96885726053036]
本稿では,リアルタイム脳波信号解析のための新しいグラフベース残状態更新機構(REST)を提案する。
グラフニューラルネットワークとリカレント構造の組み合わせを活用することで、RESTは、非ユークリッド幾何学とEEGデータ内の時間的依存関係の両方を効率的にキャプチャする。
本モデルは,発作検出と分類作業において高い精度を示す。
論文 参考訳(メタデータ) (2024-06-03T16:30:19Z) - ADVENT: Attack/Anomaly Detection in VANETs [0.8594140167290099]
本研究では,悪意のある行動をリアルタイムに検出するシステムを提案する。
統計的および機械学習技術をシームレスに統合することにより、提案システムは単純さと効率性を優先する。
F1スコアの99.66%で高速に攻撃を検知し、その後、平均で97.85%の悪意のある車両を識別する。
論文 参考訳(メタデータ) (2024-01-16T18:49:08Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - An Efficiency Study for SPLADE Models [5.725475501578801]
本稿では,SPLADEモデルの効率向上に焦点をあてる。
本稿では、クエリのL1正規化、ドキュメント/エンコーダの分離、FLOPS正規化ミドルトレーニング、高速なクエリエンコーダの使用など、いくつかの手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T11:42:05Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Improving Variational Autoencoder based Out-of-Distribution Detection
for Embedded Real-time Applications [2.9327503320877457]
アウト・オブ・ディストリビューション(OD)検出は、リアルタイムにアウト・オブ・ディストリビューションを検出するという課題に対処する新しいアプローチである。
本稿では,自律走行エージェントの周囲の有害な動きを頑健に検出する方法について述べる。
提案手法は,OoD因子の検出能力を一意に改善し,最先端手法よりも42%向上した。
また,本モデルでは,実験した実世界およびシミュレーション駆動データに対して,最先端技術よりも97%の精度でほぼ完璧に一般化した。
論文 参考訳(メタデータ) (2021-07-25T07:52:53Z) - Finding Action Tubes with a Sparse-to-Dense Framework [62.60742627484788]
本稿では,ビデオストリームからのアクションチューブ提案を1つのフォワードパスでスパース・トゥ・デンス方式で生成するフレームワークを提案する。
UCF101-24, JHMDB-21, UCFSportsベンチマークデータセット上で, 本モデルの有効性を評価する。
論文 参考訳(メタデータ) (2020-08-30T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。