論文の概要: Fractals as Pre-training Datasets for Anomaly Detection and Localization
- arxiv url: http://arxiv.org/abs/2405.06980v1
- Date: Sat, 11 May 2024 10:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:07:50.070580
- Title: Fractals as Pre-training Datasets for Anomaly Detection and Localization
- Title(参考訳): 異常検出と局所化のための事前学習データセットとしてのフラクタル
- Authors: C. I. Ugwu, S. Casarin, O. Lanz,
- Abstract要約: 異常検出は、欠陥部分の検出とローカライズを支援するため、大規模製造業において不可欠である。
大規模データセットの事前トレーニング機能抽出は、このタスクの一般的なアプローチである。
動的に生成されたフラクタル画像を用いて事前学習した8つの最先端手法の性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Anomaly detection is crucial in large-scale industrial manufacturing as it helps detect and localise defective parts. Pre-training feature extractors on large-scale datasets is a popular approach for this task. Stringent data security and privacy regulations and high costs and acquisition time hinder the availability and creation of such large datasets. While recent work in anomaly detection primarily focuses on the development of new methods built on such extractors, the importance of the data used for pre-training has not been studied. Therefore, we evaluated the performance of eight state-of-the-art methods pre-trained using dynamically generated fractal images on the famous benchmark datasets MVTec and VisA. In contrast to existing literature, which predominantly examines the transfer-learning capabilities of fractals, in this study, we compare models pre-trained with fractal images against those pre-trained with ImageNet, without subsequent fine-tuning. Although pre-training with ImageNet remains a clear winner, the results of fractals are promising considering that the anomaly detection task required features capable of discerning even minor visual variations. This opens up the possibility for a new research direction where feature extractors could be trained on synthetically generated abstract datasets reconciling the ever-increasing demand for data in machine learning while circumventing privacy and security concerns.
- Abstract(参考訳): 異常検出は、欠陥部分の検出とローカライズを支援するため、大規模製造業において不可欠である。
大規模データセットの事前トレーニング機能抽出は、このタスクの一般的なアプローチである。
データセキュリティとプライバシの厳格な規制と高いコストと取得時間によって、このような大規模なデータセットの可用性と作成が妨げられます。
異常検出における最近の研究は、主にそのような抽出器上に構築された新しい手法の開発に焦点が当てられているが、事前学習に使用されるデータの重要性は研究されていない。
そこで, MVTec と VisA のベンチマークデータを用いて, 動的に生成されたフラクタル画像を用いて, 8 つの最先端手法の性能評価を行った。
本研究では, フラクタルの伝達学習能力を主に研究している既存の文献とは対照的に, フラクタル画像を用いた事前学習モデルと, ImageNetで事前学習したモデルとの比較を行った。
ImageNetによる事前トレーニングは依然として明確な勝者であるが、フラクタルの結果は、異常検出タスクが小さな視覚的バリエーションを識別できる機能を必要とすることを考慮し、有望である。
これにより、プライバシやセキュリティ上の懸念を回避しつつ、機械学習におけるデータ需要の増加を緩和する、合成生成された抽象データセットに対して、機能抽出器をトレーニングする新たな研究の方向性が開かれる。
関連論文リスト
- Few-shot Online Anomaly Detection and Segmentation [29.693357653538474]
本稿では,難易度の高いオンライン異常検出・セグメンテーション(FOADS)の課題に対処することに焦点を当てる。
FOADSフレームワークでは、モデルを数ショットの通常のデータセットでトレーニングし、その後、正常サンプルと異常サンプルの両方を含む未ラベルのストリーミングデータを活用することで、その能力の検査と改善を行う。
限られたトレーニングサンプルを用いた性能向上のために,ImageNetで事前学習したCNNから抽出したマルチスケール特徴埋め込みを用いて,ロバストな表現を得る。
論文 参考訳(メタデータ) (2024-03-27T02:24:00Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - TAB: Text-Align Anomaly Backbone Model for Industrial Inspection Tasks [12.660226544498023]
本稿では,製造領域に適したバックボーンモデルを十分に訓練するための新しい枠組みを提案する。
本手法では,正常な状態と異常な状態に対する視覚的,テキスト的に整列した埋め込み空間を同時に検討する。
その結果、事前訓練されたバックボーンは、工業的な下流タスクのパフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2023-12-15T01:37:29Z) - Proper Reuse of Image Classification Features Improves Object Detection [4.240984948137734]
トランスファーラーニングの一般的な実践は、データに基づく上流タスクで事前学習することで、下流モデルの重み付けを初期化することである。
近年の研究では、長いトレーニング体制下では必須ではないことが示されており、背骨をスクラッチからトレーニングするためのレシピを提供している。
知識保存の極端な形態 -- 分類器dのバックボーンを凍結する -- が、一貫して多くの異なる検出モデルを改善していることを示す。
論文 参考訳(メタデータ) (2022-04-01T14:44:47Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Deep Structure Learning using Feature Extraction in Trained Projection
Space [0.0]
我々は、低次元空間における畳み込みによる特徴抽出を可能にするために、Randon-transform(線形データ投影)の自己調整およびデータ依存バージョンを用いてネットワークアーキテクチャを導入する。
PiNetという名前のフレームワークは、エンドツーエンドでトレーニングでき、ボリュームセグメンテーションタスクで有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-09-01T12:16:55Z) - Unsupervised machine learning via transfer learning and k-means
clustering to classify materials image data [0.0]
本稿では,画像分類のための高性能な教師なし機械学習システムの構築,利用,評価について述べる。
我々は、自然画像のImageNetデータセット上に事前訓練されたVGG16畳み込みニューラルネットワークを用いて、各マイクログラフの特徴表現を抽出する。
このアプローチは、99.4% pm 0.16%$の精度を実現し、結果として得られたモデルは、再トレーニングせずに、新しい画像の分類に使うことができる。
論文 参考訳(メタデータ) (2020-07-16T14:36:04Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。