論文の概要: Class Incremental Fault Diagnosis under Limited Fault Data via Supervised Contrastive Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2501.09525v1
- Date: Thu, 16 Jan 2025 13:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:11:23.748974
- Title: Class Incremental Fault Diagnosis under Limited Fault Data via Supervised Contrastive Knowledge Distillation
- Title(参考訳): 教師付きコントラスト知識蒸留による限定断層データに基づくクラスインクリメンタル故障診断
- Authors: Hanrong Zhang, Yifei Yao, Zixuan Wang, Jiayuan Su, Mengxuan Li, Peng Peng, Hongwei Wang,
- Abstract要約: クラスインクリメンタルな障害診断は、以前の知識を維持しながら新しい障害クラスに適応するモデルを必要とする。
本稿では,クラスインクリメンタル・フォールト・診断のためのスーパーバイザード・コントラスト・ナレッジ・ディチリレーションを提案する。
- 参考スコア(独自算出の注目度): 9.560742599396411
- License:
- Abstract: Class-incremental fault diagnosis requires a model to adapt to new fault classes while retaining previous knowledge. However, limited research exists for imbalanced and long-tailed data. Extracting discriminative features from few-shot fault data is challenging, and adding new fault classes often demands costly model retraining. Moreover, incremental training of existing methods risks catastrophic forgetting, and severe class imbalance can bias the model's decisions toward normal classes. To tackle these issues, we introduce a Supervised Contrastive knowledge distiLlation for class Incremental Fault Diagnosis (SCLIFD) framework proposing supervised contrastive knowledge distillation for improved representation learning capability and less forgetting, a novel prioritized exemplar selection method for sample replay to alleviate catastrophic forgetting, and the Random Forest Classifier to address the class imbalance. Extensive experimentation on simulated and real-world industrial datasets across various imbalance ratios demonstrates the superiority of SCLIFD over existing approaches. Our code can be found at https://github.com/Zhang-Henry/SCLIFD_TII.
- Abstract(参考訳): クラスインクリメンタルな障害診断は、以前の知識を維持しながら新しい障害クラスに適応するモデルを必要とする。
しかし、不均衡なデータと長い尾のデータについては限定的な研究がある。
数ショットのフォールトデータから差別的特徴を抽出することは困難であり、新しいフォールトクラスを追加するには、しばしばコストのかかるモデル再トレーニングが必要である。
さらに、既存の手法の漸進的な訓練は破滅的な忘れ込みを招き、厳格なクラス不均衡はモデルの判断を通常のクラスに偏らせる可能性がある。
これらの課題に対処するために,クラスインクリメンタルフォールト診断(SCLIFD)フレームワークを導入し,教師付きコントラスト的知識蒸留による表現学習能力の向上と忘れの軽減を目的とした。
各種の不均衡比のシミュレーションおよび実世界の産業データセットに関する大規模な実験は、既存のアプローチよりもSCLIFDの方が優れていることを示す。
私たちのコードはhttps://github.com/Zhang-Henry/SCLIFD_TIIで確認できます。
関連論文リスト
- From Uncertainty to Clarity: Uncertainty-Guided Class-Incremental Learning for Limited Biomedical Samples via Semantic Expansion [0.0]
バイオメディカル分野における限られたサンプルの下でのクラスインクリメンタル学習手法を提案する。
提案手法は,最先端の手法を最大53.54%の精度で上回り,最適性能を実現する。
論文 参考訳(メタデータ) (2024-09-12T05:22:45Z) - Error Detection and Constraint Recovery in Hierarchical Multi-Label Classification without Prior Knowledge [2.0007789979629784]
本稿では,機械学習モデルの障害モードに関する説明可能なルールを学習可能なEDR(Error Detection Rules)に基づくアプローチを提案する。
提案手法は,機械学習の誤りの検出や制約の回復に有効であり,耐雑音性があり,複数のデータセット上でのニューロシンボリックモデルの知識源として機能することを示す。
論文 参考訳(メタデータ) (2024-07-21T15:12:19Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - SCLIFD:Supervised Contrastive Knowledge Distillation for Incremental
Fault Diagnosis under Limited Fault Data [8.354404360859263]
限られた断層データから識別的特徴を抽出することは困難である。
十分に訓練されたモデルは、新しいクラスからサンプルを分類するために、スクラッチから再訓練されなければならない。
モデル決定は、クラスの不均衡のため、新しいクラスに偏っている。
論文 参考訳(メタデータ) (2023-02-12T14:50:12Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。