論文の概要: Transferring self-supervised pre-trained models for SHM data anomaly detection with scarce labeled data
- arxiv url: http://arxiv.org/abs/2412.03880v1
- Date: Thu, 05 Dec 2024 05:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:39:23.633303
- Title: Transferring self-supervised pre-trained models for SHM data anomaly detection with scarce labeled data
- Title(参考訳): 少ないラベル付きデータを用いたSHMデータ異常検出のための自己教師付き事前学習モデルの転送
- Authors: Mingyuan Zhou, Xudong Jian, Ye Xia, Zhilu Lai,
- Abstract要約: 自己指導型学習(SSL)は、教師なしの事前学習と教師なしの微調整を組み合わせた新興パラダイムである。
SSL技術によりデータ異常検出性能が向上し、従来の教師付きトレーニングに比べてF1スコアが向上した。
本研究は、大規模SHMデータに対するSSL技術の有効性と優位性を示し、ラベル情報の少ない予備異常検出のための効率的なツールを提供する。
- 参考スコア(独自算出の注目度): 45.031249077732745
- License:
- Abstract: Structural health monitoring (SHM) has experienced significant advancements in recent decades, accumulating massive monitoring data. Data anomalies inevitably exist in monitoring data, posing significant challenges to their effective utilization. Recently, deep learning has emerged as an efficient and effective approach for anomaly detection in bridge SHM. Despite its progress, many deep learning models require large amounts of labeled data for training. The process of labeling data, however, is labor-intensive, time-consuming, and often impractical for large-scale SHM datasets. To address these challenges, this work explores the use of self-supervised learning (SSL), an emerging paradigm that combines unsupervised pre-training and supervised fine-tuning. The SSL-based framework aims to learn from only a very small quantity of labeled data by fine-tuning, while making the best use of the vast amount of unlabeled SHM data by pre-training. Mainstream SSL methods are compared and validated on the SHM data of two in-service bridges. Comparative analysis demonstrates that SSL techniques boost data anomaly detection performance, achieving increased F1 scores compared to conventional supervised training, especially given a very limited amount of labeled data. This work manifests the effectiveness and superiority of SSL techniques on large-scale SHM data, providing an efficient tool for preliminary anomaly detection with scarce label information.
- Abstract(参考訳): 構造的健康モニタリング(SHM)は、過去数十年で著しい進歩を経験し、大規模なモニタリングデータを蓄積している。
データ異常はデータ監視に必然的に存在し、その有効利用に重大な課題を生じさせる。
近年,橋梁SHMにおける異常検出の効率的かつ効果的な手法としてディープラーニングが登場している。
その進歩にもかかわらず、多くのディープラーニングモデルは、トレーニングのために大量のラベル付きデータを必要とします。
しかし、データのラベル付けのプロセスは、労働集約的で、時間がかかり、大規模なSHMデータセットでは実用的ではないことが多い。
これらの課題に対処するために、教師なし事前トレーニングと教師なし微調整を組み合わせた新たなパラダイムである、自己教師付き学習(SSL)の使用について検討する。
SSLベースのフレームワークは、非常に少量のラベル付きデータのみを微調整することで学習することを目的としており、事前トレーニングによって大量のラベルなしSHMデータを最大限に活用することを目的としている。
メインストリームSSLメソッドは、2つのサービス内ブリッジのSHMデータに基づいて比較および検証される。
比較分析により、SSL技術はデータ異常検出性能を高め、従来の教師付きトレーニングに比べてF1スコアが増加し、特にラベル付きデータが非常に少ないことが示されている。
本研究は、大規模SHMデータに対するSSL技術の有効性と優位性を示し、ラベル情報の少ない予備異常検出のための効率的なツールを提供する。
関連論文リスト
- Leveraging Semi-Supervised Learning to Enhance Data Mining for Image Classification under Limited Labeled Data [35.431340001608476]
従来のデータマイニング手法は、大規模で高次元で複雑なデータに直面すると不十分である。
本研究では,ラベルのないデータを利用するアルゴリズムの能力向上を目的とした,半教師付き学習手法を提案する。
具体的には、自己学習法を採用し、画像の特徴抽出と分類のための畳み込みニューラルネットワーク(CNN)と組み合わせる。
論文 参考訳(メタデータ) (2024-11-27T18:59:50Z) - A Survey of the Self Supervised Learning Mechanisms for Vision Transformers [5.152455218955949]
視覚タスクにおける自己教師あり学習(SSL)の適用は注目されている。
SSL手法を体系的に分類する包括的分類法を開発した。
SSLの背後にあるモチベーションについて議論し、人気のある事前トレーニングタスクをレビューし、この分野の課題と進歩を強調します。
論文 参考訳(メタデータ) (2024-08-30T07:38:28Z) - SPEED: Scalable Preprocessing of EEG Data for Self-Supervised Learning [2.705542761685457]
自己教師付き学習に最適化されたPythonベースのEEG前処理パイプラインを提案する。
この最適化は、自己教師付きトレーニングを安定化し、下流タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-08-15T10:15:01Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - Self-Supervised Learning for Data Scarcity in a Fatigue Damage
Prognostic Problem [0.0]
自己監督学習(Self-Supervised Learning)は、教師なし学習アプローチのサブカテゴリである。
本稿では,未ラベルセンサデータを用いた自己学習型DLモデルの有効性について検討する。
その結果, 自己教師付き事前学習モデルでは, 下流RUL予測タスクにおいて, 非事前学習モデルよりも大幅に優れていることがわかった。
論文 参考訳(メタデータ) (2023-01-20T06:45:32Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Robust Learning of Deep Time Series Anomaly Detection Models with
Contaminated Training Data [29.808942473293108]
時系列異常検出(TSAD)は、IoT時代の多くのアプリケーションにおいて重要なデータマイニングタスクである。
ディープTSADメソッドは通常、基礎となるダイナミクスの"正規プロファイル"を学ぶために、異常によって汚染されないクリーンなトレーニングデータセットに依存します。
本研究では,潜在的に汚染されたデータを用いて,メインストリームの深部TSADモデルの堅牢性を効果的に向上するモデルに依存しない手法を提案する。
論文 参考訳(メタデータ) (2022-08-03T04:52:08Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。