論文の概要: Calibrated Adaptive Teacher for Domain Adaptive Intelligent Fault
Diagnosis
- arxiv url: http://arxiv.org/abs/2312.02826v1
- Date: Tue, 5 Dec 2023 15:19:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 15:21:39.066856
- Title: Calibrated Adaptive Teacher for Domain Adaptive Intelligent Fault
Diagnosis
- Title(参考訳): ドメイン適応型知的障害診断のための校正適応教師
- Authors: Florent Forest, Olga Fink
- Abstract要約: 教師なしのドメイン適応(UDA)は、ラベル付きデータがソースドメインで利用可能であり、ラベルなしデータがターゲットドメインでのみ利用可能であるシナリオを扱う。
本稿では,自己学習過程を通じて教師ネットワークの予測を校正する,Calibrated Adaptive Teacher (CAT) と呼ばれる新しいUDA手法を提案する。
- 参考スコア(独自算出の注目度): 7.88657961743755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent Fault Diagnosis (IFD) based on deep learning has proven to be an
effective and flexible solution, attracting extensive research. Deep neural
networks can learn rich representations from vast amounts of representative
labeled data for various applications. In IFD, they achieve high classification
performance from signals in an end-to-end manner, without requiring extensive
domain knowledge. However, deep learning models usually only perform well on
the data distribution they have been trained on. When applied to a different
distribution, they may experience performance drops. This is also observed in
IFD, where assets are often operated in working conditions different from those
in which labeled data have been collected. Unsupervised domain adaptation (UDA)
deals with the scenario where labeled data are available in a source domain,
and only unlabeled data are available in a target domain, where domains may
correspond to operating conditions. Recent methods rely on training with
confident pseudo-labels for target samples. However, the confidence-based
selection of pseudo-labels is hindered by poorly calibrated confidence
estimates in the target domain, primarily due to over-confident predictions,
which limits the quality of pseudo-labels and leads to error accumulation. In
this paper, we propose a novel UDA method called Calibrated Adaptive Teacher
(CAT), where we propose to calibrate the predictions of the teacher network
throughout the self-training process, leveraging post-hoc calibration
techniques. We evaluate CAT on domain-adaptive IFD and perform extensive
experiments on the Paderborn benchmark for bearing fault diagnosis under
varying operating conditions. Our proposed method achieves state-of-the-art
performance on most transfer tasks.
- Abstract(参考訳): 深層学習に基づくインテリジェント障害診断(IFD)は、効果的で柔軟なソリューションであることが証明されており、広範な研究を惹きつけている。
ディープニューラルネットワークは、さまざまなアプリケーションのための大量のラベル付きデータからリッチな表現を学ぶことができる。
IFDでは、広範囲なドメイン知識を必要とせず、エンドツーエンドで信号から高い分類性能を達成する。
しかし、ディープラーニングモデルは通常、トレーニングされたデータ分散に対してのみうまく機能する。
異なるディストリビューションに適用されると、パフォーマンスが低下する可能性がある。
また、ifdでは、ラベル付きデータが収集されたものと異なる作業条件で資産が運用されることが多い。
教師なしドメイン適応(unsupervised domain adaptation, uda)は、ラベル付きデータがソースドメインで利用可能であり、ラベルなしデータだけがターゲットドメインで利用可能であるシナリオを扱う。
近年の手法は、ターゲットサンプルに対する自信ある擬似ラベルによるトレーニングに依存している。
しかし、疑似ラベルの信頼性に基づく選択は、主に疑似ラベルの品質を制限し、誤りの蓄積につながる過信予測によって、対象ドメインの精度の低い信頼推定によって妨げられる。
本稿では, 自己学習過程を通じて教師ネットワークの予測を校正し, ポストホック校正技術を活用する, 校正適応教師(CAT)と呼ばれる新しいUDA手法を提案する。
我々は,ドメイン適応IFDにおけるCATを評価し,様々な動作条件下での故障診断のためのPaderbornベンチマークで広範な実験を行った。
提案手法は,ほとんどの転送タスクにおける最先端性能を実現する。
関連論文リスト
- Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Contrastive Domain Adaptation for Early Misinformation Detection: A Case
Study on COVID-19 [8.828396559882954]
初期の誤報は、しばしば既存の誤報データに対する条件とラベルのシフトを示す。
早期誤情報検出(CANMD)のためのコントラスト適応ネットワークを提案する。
結果は、CANMDが未確認の新型コロナウイルス標的領域に誤情報検出システムを効果的に適応させることができることを示唆している。
論文 参考訳(メタデータ) (2022-08-20T02:09:35Z) - Deep Unsupervised Domain Adaptation: A Review of Recent Advances and
Perspectives [16.68091981866261]
対象領域のデータの性能低下に対応するために、教師なし領域適応(UDA)を提案する。
UDAは、自然言語処理、ビデオ解析、自然言語処理、時系列データ分析、医用画像解析など、有望な成果を上げている。
論文 参考訳(メタデータ) (2022-08-15T20:05:07Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Invariance Learning based on Label Hierarchy [17.53032543377636]
Deep Neural Networksは、トレーニングデータに埋め込まれた急激な相関関係を継承する。
Invariance Learning (IL) はこの欠点を克服するために最近開発されている。
本稿では,複数の領域におけるデータトレーニングの要件を克服する新しいILフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T13:31:21Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Weak Adaptation Learning -- Addressing Cross-domain Data Insufficiency
with Weak Annotator [2.8672054847109134]
一部のターゲット問題ドメインでは、学習プロセスを妨げる可能性のあるデータサンプルがあまりありません。
類似のソースドメインからのラベルなしデータを活用した弱い適応学習(wal)手法を提案する。
本実験は,対象領域に限定されたラベル付きデータを含む正確な分類器を学習する手法の有効性を示す。
論文 参考訳(メタデータ) (2021-02-15T06:19:25Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。