論文の概要: Memory Efficient Continual Learning for Edge-Based Visual Anomaly Detection
- arxiv url: http://arxiv.org/abs/2503.02691v1
- Date: Tue, 04 Mar 2025 15:03:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:23:55.098664
- Title: Memory Efficient Continual Learning for Edge-Based Visual Anomaly Detection
- Title(参考訳): エッジベース視覚異常検出のためのメモリ効率の良い連続学習
- Authors: Manuel Barusco, Lorenzo D'Antoni, Davide Dalle Pezze, Francesco Borsatti, Gian Antonio Susto,
- Abstract要約: 本稿では,エッジデバイス上での視覚異常検出における連続学習の課題について,新たな考察を行う。
エッジデバイス上でのメモリフットプリントが低いことを考慮し,STFPM手法の評価を行った。
本研究は,資源制約エッジデバイス上でのCLADシナリオに適応し,漸進的に学習するVADモデルをデプロイ可能であることを示す。
- 参考スコア(独自算出の注目度): 4.790817958353412
- License:
- Abstract: Visual Anomaly Detection (VAD) is a critical task in computer vision with numerous real-world applications. However, deploying these models on edge devices presents significant challenges, such as constrained computational and memory resources. Additionally, dynamic data distributions in real-world settings necessitate continuous model adaptation, further complicating deployment under limited resources. To address these challenges, we present a novel investigation into the problem of Continual Learning for Visual Anomaly Detection (CLAD) on edge devices. We evaluate the STFPM approach, given its low memory footprint on edge devices, which demonstrates good performance when combined with the Replay approach. Furthermore, we propose to study the behavior of a recently proposed approach, PaSTe, specifically designed for the edge but not yet explored in the Continual Learning context. Our results show that PaSTe is not only a lighter version of STPFM, but it also achieves superior anomaly detection performance, improving the f1 pixel performance by 10% with the Replay technique. In particular, the structure of PaSTe allows us to test it using a series of Compressed Replay techniques, reducing memory overhead by a maximum of 91.5% compared to the traditional Replay for STFPM. Our study proves the feasibility of deploying VAD models that adapt and learn incrementally on CLAD scenarios on resource-constrained edge devices.
- Abstract(参考訳): 視覚異常検出(VAD)はコンピュータビジョンにおいて多くの実世界のアプリケーションで重要な課題である。
しかし、これらのモデルをエッジデバイスにデプロイすることは、制約付き計算やメモリリソースなど、大きな課題を呈している。
さらに、現実の環境での動的データ分散は、継続的なモデル適応を必要とし、限られたリソース下でのデプロイメントをさらに複雑にする。
これらの課題に対処するため,エッジデバイス上でのCLAD(Continuous Learning for Visual Anomaly Detection)問題について,新たに検討する。
エッジデバイス上でのメモリフットプリントが低いことを考慮し,STFPM手法の評価を行った。
さらに,最近提案されたPaSTeはエッジに特化して設計されているが,継続学習の文脈ではまだ検討されていない。
以上の結果から,PaSTeはSTPFMの軽量版であるだけでなく,より優れた異常検出性能を実現し,リプレイ技術によりf1ピクセル性能を10%向上させることができた。
特に、PaSTeの構造により、一連のCompressed Replay技術を用いて、従来のSTFPMのReplayと比較して、メモリオーバーヘッドを最大91.5%削減できる。
本研究は,資源制約エッジデバイス上でのCLADシナリオに適応し,漸進的に学習するVADモデルをデプロイ可能であることを示す。
関連論文リスト
- Patch-aware Vector Quantized Codebook Learning for Unsupervised Visual Defect Detection [4.081433571732692]
産業応用においては、教師なしの視覚欠陥検出が重要である。
教師なし欠陥検出に最適化された拡張VQ-VAEフレームワークを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-15T22:26:26Z) - Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - PaSTe: Improving the Efficiency of Visual Anomaly Detection at the Edge [6.643376250301589]
視覚異常検出(VAD)は、異常画像を識別し、異常の原因となる特定の領域を特定できることから、重要な研究の注目を集めている。
現実世界のアプリケーションの可能性にもかかわらず、文献はリソース効率の高いVAD、特にエッジデバイスへのデプロイに限定して焦点を当てている。
この作業は、軽量ニューラルネットワークを活用してメモリと要求を削減し、リソース制約のあるエッジデバイスへのVADデプロイメントを可能にすることで、このギャップに対処する。
論文 参考訳(メタデータ) (2024-10-15T13:25:43Z) - ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - InfRS: Incremental Few-Shot Object Detection in Remote Sensing Images [11.916941756499435]
本稿では,リモートセンシング画像におけるインクリメンタルな数ショット物体検出の複雑な課題について検討する。
本稿では,新しい授業の漸進的な学習を促進するために,InfRSと呼ばれる先駆的な微調整技術を導入する。
我々はワッサーシュタイン距離に基づく原型校正戦略を開発し、破滅的な忘れ問題を軽減する。
論文 参考訳(メタデータ) (2024-05-18T13:39:50Z) - Design Space Exploration of Low-Bit Quantized Neural Networks for Visual
Place Recognition [26.213493552442102]
視覚的位置認識(VPR)は、視覚認識システムにおいて、グローバルな再局在を行うための重要なタスクである。
最近、リソース利用に限定したパフォーマンス指標としてリコール@1メトリクスに焦点が当てられている。
これにより、低出力エッジデバイスにデプロイするには、ディープラーニングモデルを使用する方法が大きすぎる。
完全精度と混合精度のポストトレーニング量子化を併用したコンパクト畳み込みネットワーク設計がVPR性能に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2023-12-14T15:24:42Z) - End-to-End Temporal Action Detection with 1B Parameters Across 1000 Frames [55.72994484532856]
時間的行動検出(TAD)は、エンドツーエンドのトレーニングで大幅に改善された。
メモリボトルネックのため、限られたスケールと限られたデータ量を持つモデルだけがエンドツーエンドのトレーニングを受けることができる。
エンド・ツー・エンドトレーニングのメモリ消費を削減し,10億のパラメータと入力映像を1,536フレームにスケールアップする。
論文 参考訳(メタデータ) (2023-11-28T21:31:04Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Cross-modal Knowledge Distillation for Vision-to-Sensor Action
Recognition [12.682984063354748]
本研究では、VSKDフレームワークをエンドツーエンドで導入する。
このVSKDフレームワークでは、テストフェーズ中にウェアラブルデバイスから必要となるのは時系列データ(加速度計データ)のみである。
このフレームワークは、エッジデバイスに対する計算要求を減らすだけでなく、計算コストのかかるマルチモーダルアプローチのパフォーマンスと密に一致した学習モデルも生成する。
論文 参考訳(メタデータ) (2021-10-08T15:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。