論文の概要: Scalable and reliable deep transfer learning for intelligent fault
detection via multi-scale neural processes embedded with knowledge
- arxiv url: http://arxiv.org/abs/2402.12729v1
- Date: Tue, 20 Feb 2024 05:39:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:13:18.059556
- Title: Scalable and reliable deep transfer learning for intelligent fault
detection via multi-scale neural processes embedded with knowledge
- Title(参考訳): 知識を組み込んだマルチスケールニューラルプロセスによる知的故障検出のためのスケーラブルで信頼性の高い深層移動学習
- Authors: Zhongzhi Li, Jingqi Tu, Jiacheng Zhu, Jianliang Ai, Yiqun Dong
- Abstract要約: 本稿では,グラフ畳み込みネットワーク(GTNP)を用いたニューラルプロセスを用いたディープトランスファー学習法を提案する。
提案手法の検証は3つのIFDタスクにまたがって行われ、他のDTL法と比較してGTNPの検出性能が優れていた。
- 参考スコア(独自算出の注目度): 7.730457774728478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep transfer learning (DTL) is a fundamental method in the field of
Intelligent Fault Detection (IFD). It aims to mitigate the degradation of
method performance that arises from the discrepancies in data distribution
between training set (source domain) and testing set (target domain).
Considering the fact that fault data collection is challenging and certain
faults are scarce, DTL-based methods face the limitation of available
observable data, which reduces the detection performance of the methods in the
target domain. Furthermore, DTL-based methods lack comprehensive uncertainty
analysis that is essential for building reliable IFD systems. To address the
aforementioned problems, this paper proposes a novel DTL-based method known as
Neural Processes-based deep transfer learning with graph convolution network
(GTNP). Feature-based transfer strategy of GTNP bridges the data distribution
discrepancies of source domain and target domain in high-dimensional space.
Both the joint modeling based on global and local latent variables and sparse
sampling strategy reduce the demand of observable data in the target domain.
The multi-scale uncertainty analysis is obtained by using the distribution
characteristics of global and local latent variables. Global analysis of
uncertainty enables GTNP to provide quantitative values that reflect the
complexity of methods and the difficulty of tasks. Local analysis of
uncertainty allows GTNP to model uncertainty (confidence of the fault detection
result) at each sample affected by noise and bias. The validation of the
proposed method is conducted across 3 IFD tasks, consistently showing the
superior detection performance of GTNP compared to the other DTL-based methods.
- Abstract(参考訳): deep transfer learning (dtl) は知的障害検出(ifd)の分野で基本的な手法である。
トレーニングセット(ソースドメイン)とテストセット(ターゲットドメイン)間のデータ分散の相違から生じるメソッドパフォーマンスの低下を軽減することを目的としている。
フォールトデータ収集が困難で障害が少ないことを考えると、DTLベースの手法は可観測データの制限に直面しているため、対象領域におけるメソッドの検出性能が低下する。
さらに,DTLに基づく手法は信頼性の高いIFDシステム構築に不可欠な包括的不確実性解析を欠いている。
本稿では,グラフ畳み込みネットワーク(gtnp)を用いたニューラルプロセスに基づく深層伝達学習法を提案する。
GTNPの特徴に基づく転送戦略は、高次元空間におけるソースドメインとターゲットドメインのデータ分散の相違を橋渡しする。
グローバルかつ局所的な潜伏変数に基づく共同モデリングとスパースサンプリング戦略の両方により、対象領域における観測可能なデータの需要が減少する。
大域および局所潜在変数の分布特性を用いて多スケール不確実性解析を行う。
不確実性のグローバル分析により、gtnpはメソッドの複雑さとタスクの難しさを反映した定量的な値を提供することができる。
不確実性の局所分析により、GTNPはノイズやバイアスに影響された各サンプルにおける不確実性(故障検出結果の信頼)をモデル化できる。
提案手法の検証は3つのIFDタスクにまたがって行われ、他のDTL法と比較してGTNPの検出性能が優れていた。
関連論文リスト
- Reliable Deep Diffusion Tensor Estimation: Rethinking the Power of Data-Driven Optimization Routine [17.516054970588137]
本研究では,データ駆動型最適化手法であるDoDTIを紹介する。
提案手法はDTIパラメータ推定における最先端性能を実現する。
特に、より優れた一般化、精度、効率を示し、この分野の幅広い応用に高い信頼性を与えている。
論文 参考訳(メタデータ) (2024-09-04T07:35:12Z) - Embedding Trajectory for Out-of-Distribution Detection in Mathematical Reasoning [50.84938730450622]
数理推論におけるOOD検出にトラジェクトリボラティリティを用いたトラジェクトリベースのTVスコアを提案する。
本手法は, 数学的推論シナリオ下でのGLM上での従来のアルゴリズムよりも優れる。
提案手法は,複数選択質問などの出力空間における高密度特徴を持つアプリケーションに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T22:22:25Z) - Tackling Distribution Shifts in Task-Oriented Communication with Information Bottleneck [28.661084093544684]
本稿では,情報ボトルネック(IB)原理と不変リスク最小化(IRM)フレームワークに基づく新しいアプローチを提案する。
提案手法は,効率的な領域シフト一般化のための高機能を有するコンパクトかつ情報的特徴を抽出することを目的としている。
提案手法は最先端の手法より優れ、より優れたレート歪みトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2024-05-15T17:07:55Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Domain Adaptation by Topology Regularization [0.0]
ドメイン適応(DA)または転送学習(TL)は、ラベル付き(ソース)データセットから関心のある(ターゲット)データセットに知識を転送するアルゴリズムを可能にする。
本稿では,TLに永続ホモロジーと呼ばれる位相データ解析手法を適用し,グローバルなデータ構造を活用することを提案する。
論文 参考訳(メタデータ) (2021-01-28T16:45:41Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。