論文の概要: Incremental dimension reduction for efficient and accurate visual anomaly detection
- arxiv url: http://arxiv.org/abs/2602.23595v1
- Date: Fri, 27 Feb 2026 01:56:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.199808
- Title: Incremental dimension reduction for efficient and accurate visual anomaly detection
- Title(参考訳): 能率的・高精度な視覚異常検出のためのインクリメンタルディメンションの低減
- Authors: Teng-Yok Lee,
- Abstract要約: 抽出した特徴量を削減するために, インクリメンタル次元削減アルゴリズムを提案する。
提案アルゴリズムは,最先端の異常検出アルゴリズムの訓練を精度良く高速化できることを示す。
- 参考スコア(独自算出の注目度): 1.6582968942719265
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While nowadays visual anomaly detection algorithms use deep neural networks to extract salient features from images, the high dimensionality of extracted features makes it difficult to apply those algorithms to large data with 1000s of images. To address this issue, we present an incremental dimension reduction algorithm to reduce the extracted features. While our algorithm essentially computes truncated singular value decomposition of these features, other than processing all vectors at once, our algorithm groups the vectors into batches. At each batch, our algorithm updates the truncated singular values and vectors that represent all visited vectors, and reduces each batch by its own singular values and vectors so they can be stored in the memory with low overhead. After processing all batches, we re-transform these batch-wise singular vectors to the space spanned by the singular vectors of all features. We show that our algorithm can accelerate the training of state-of-the-art anomaly detection algorithm with close accuracy.
- Abstract(参考訳): 現在、視覚異常検出アルゴリズムは、深層ニューラルネットワークを用いて画像から有意な特徴を抽出しているが、抽出された特徴の高次元性は、それらのアルゴリズムを1000イメージの大規模データに適用することを困難にしている。
この問題に対処するため,抽出した特徴量を削減するために,インクリメンタル次元削減アルゴリズムを提案する。
我々のアルゴリズムは基本的に、全てのベクトルを一度に処理する以外、これらの特徴の切り詰められた特異値分解を計算しますが、我々のアルゴリズムはベクトルをバッチにグループ化する。
提案アルゴリズムは,各バッチにおいて,訪問したベクトルのすべてを表す切り離された特異値とベクトルを更新し,各バッチをそれぞれの特異値とベクトルで減らし,メモリに低オーバーヘッドで保存する。
すべてのバッチを処理した後、これらのバッチ単位の特異ベクトルを、すべての特徴の特異ベクトルで区切られた空間に再変換する。
提案アルゴリズムは,最先端の異常検出アルゴリズムの訓練を精度良く高速化できることを示す。
関連論文リスト
- Feature Explosion: a generic optimization strategy for outlier detection algorithms [8.206124331448931]
外乱検出タスクは潜在的な問題や機会を発見することを目的としている。
何千もの異常検出アルゴリズムが提案されている。
この冗長性の根本原因は、現在の高度にカスタマイズされた(非汎用的な)最適化戦略にある。
論文 参考訳(メタデータ) (2025-02-08T08:58:12Z) - A Mirror Descent-Based Algorithm for Corruption-Tolerant Distributed Gradient Descent [57.64826450787237]
本研究では, 分散勾配降下アルゴリズムの挙動を, 敵対的腐敗の有無で解析する方法を示す。
汚職耐性の分散最適化アルゴリズムを設計するために、(怠慢な)ミラー降下からアイデアをどう使うかを示す。
MNISTデータセットの線形回帰、サポートベクトル分類、ソフトマックス分類に基づく実験は、我々の理論的知見を裏付けるものである。
論文 参考訳(メタデータ) (2024-07-19T08:29:12Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - BCDDO: Binary Child Drawing Development Optimization [4.395397502990339]
本研究におけるラッパーの特徴を選択するために,BCDDO(Binary Child Drawing Development Optimization)を提案する。
最適な分類精度を達成するため、提案したBCDDOを用いて重要な特徴のサブセットを選択する。
提案手法は, 特徴選択領域において, 分類精度を高めるために, 提案手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-07-19T11:32:34Z) - VAPI: Vectorization of Algorithm for Performance Improvement [5.835939416417458]
ベクトル化(Vectorization)は、一度に1つの値で動作するアルゴリズムを、一度に1つの値のコレクションで動作して高速に実行するアルゴリズムに変換するテクニックである。
ベクトル化手法はまた、複数の繰り返しを1つの演算に置き換えることで、アルゴリズムの性能を高速化する。
本研究では,メタヒューリスティックアルゴリズムの1つにベクトル化手法を適用し,ベクトル化アルゴリズムと非ベクトル化アルゴリズムを比較した。
論文 参考訳(メタデータ) (2023-07-19T11:23:03Z) - Learning the Positions in CountSketch [49.57951567374372]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-11T07:28:35Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Fast Tensor Disentangling Algorithm [0.0]
本稿では, 互いに絡み合うユニタリテンソルを最適化する近似的, 高速, 簡易なアルゴリズムを提案する。
我々のアルゴリズムは以前の反復アルゴリズムよりも高速であり、しばしば最小の10から40%以内の残絡エントロピーをもたらす。
論文 参考訳(メタデータ) (2021-04-16T18:00:01Z) - Learned Block Iterative Shrinkage Thresholding Algorithm for
Photothermal Super Resolution Imaging [52.42007686600479]
深層ニューラルネットワークに展開する反復アルゴリズムを用いて,学習したブロックスパース最適化手法を提案する。
本稿では、正規化パラメータの選択を学ぶことができる学習ブロック反復収縮しきい値アルゴリズムを使用することの利点を示す。
論文 参考訳(メタデータ) (2020-12-07T09:27:16Z) - Gaussian Vector: An Efficient Solution for Facial Landmark Detection [3.058685580689605]
本稿では,空間情報を保存し,出力サイズを小さくし,後処理を簡素化する新しい手法であるガウスベクトルを提案する。
提案手法を300W, COFW, WFLW, JDランドマークで評価した。
論文 参考訳(メタデータ) (2020-10-03T10:15:41Z) - Efficient Algorithms for Multidimensional Segmented Regression [42.046881924063044]
多次元回帰を用いた固定設計の基本問題について検討する。
我々は任意の固定次元におけるこの問題に対する最初のサンプルと計算効率のよいアルゴリズムを提供する。
提案アルゴリズムは,多次元的条件下では新規な,単純なマージ反復手法に依存している。
論文 参考訳(メタデータ) (2020-03-24T19:39:34Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。