論文の概要: Multi-modal cross-domain mixed fusion model with dual disentanglement for fault diagnosis under unseen working conditions
- arxiv url: http://arxiv.org/abs/2512.24679v1
- Date: Wed, 31 Dec 2025 07:10:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.593069
- Title: Multi-modal cross-domain mixed fusion model with dual disentanglement for fault diagnosis under unseen working conditions
- Title(参考訳): マルチモーダルクロスドメイン混合核融合モデルによる未知の作業条件下での断層診断
- Authors: Pengcheng Xia, Yixiang Huang, Chengjin Qin, Chengliang Liu,
- Abstract要約: 本稿では,マルチモーダルクロスドメイン混合核融合モデルを提案する。
一定時間および時間変化のある作業条件下での誘導運動障害診断実験を行った。
- 参考スコア(独自算出の注目度): 7.135832969368086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent fault diagnosis has become an indispensable technique for ensuring machinery reliability. However, existing methods suffer significant performance decline in real-world scenarios where models are tested under unseen working conditions, while domain adaptation approaches are limited to their reliance on target domain samples. Moreover, most existing studies rely on single-modal sensing signals, overlooking the complementary nature of multi-modal information for improving model generalization. To address these limitations, this paper proposes a multi-modal cross-domain mixed fusion model with dual disentanglement for fault diagnosis. A dual disentanglement framework is developed to decouple modality-invariant and modality-specific features, as well as domain-invariant and domain-specific representations, enabling both comprehensive multi-modal representation learning and robust domain generalization. A cross-domain mixed fusion strategy is designed to randomly mix modality information across domains for modality and domain diversity augmentation. Furthermore, a triple-modal fusion mechanism is introduced to adaptively integrate multi-modal heterogeneous information. Extensive experiments are conducted on induction motor fault diagnosis under both unseen constant and time-varying working conditions. The results demonstrate that the proposed method consistently outperforms advanced methods and comprehensive ablation studies further verify the effectiveness of each proposed component and multi-modal fusion. The code is available at: https://github.com/xiapc1996/MMDG.
- Abstract(参考訳): 知能異常診断は機械の信頼性を確保するには不可欠である。
しかし、既存の手法では、モデルが目に見えない作業条件下でテストされる現実のシナリオでは、パフォーマンスが著しく低下する一方、ドメイン適応アプローチは、対象のドメインサンプルに依存している場合に限られる。
さらに、既存の研究の多くは、モデル一般化を改善するために、マルチモーダル情報の相補的な性質を見越して、単一モーダルセンシング信号に依存している。
これらの制約に対処するため,本研究ではマルチモーダルクロスドメイン混合核融合モデルを提案する。
二重アンタングルメントフレームワークは、ドメイン不変およびドメイン固有表現と同様に、モダリティ不変およびモダリティ固有の特徴を分離するために開発され、包括的マルチモーダル表現学習とロバストドメイン一般化の両方を可能にする。
クロスドメイン混合融合戦略は、モダリティとドメインの多様性向上のために、ドメイン間でモダリティ情報をランダムに混合するように設計されている。
さらに,多モード異種情報を適応的に統合するために,三重モード融合機構を導入する。
一定時間および時間変化のある作業条件下での誘導運動障害診断について、広範囲にわたる実験を行った。
その結果,提案手法は先進的手法と包括的アブレーション研究を一貫して上回り,各コンポーネントの有効性とマルチモーダル融合の有効性を検証した。
コードは、https://github.com/xiapc1996/MMDGで入手できる。
関連論文リスト
- MIDG: Mixture of Invariant Experts with knowledge injection for Domain Generalization in Multimodal Sentiment Analysis [11.688062963416117]
マルチモーダル・センティメント・アナリティクス(MSA)のための領域一般化のための新しいフレームワークを提案する。
このフレームワークには、ドメイン不変の機能を抽出するMixture of Invariant Expertsモデルが含まれている。
第2に、クロスモーダルな知識注入によるマルチモーダル表現のセマンティックリッチネスを高めるためのクロスモーダル適応器を設計する。
論文 参考訳(メタデータ) (2025-12-08T11:04:00Z) - Calibrated Multimodal Representation Learning with Missing Modalities [100.55774771852468]
マルチモーダル表現学習は、それらを統一潜在空間に整列させることにより、異なるモダリティを調和させる。
最近の研究は、従来のクロスモーダルアライメントを一般化して、強化されたマルチモーダル・シナジーを生成するが、すべてのモダリティを共通の例に含める必要がある。
我々は、アンカーシフトの観点から、この問題に関する理論的洞察を提供する。
モーダルの欠如に起因する不完全なアライメントを校正するために,マルチモーダル表現学習のためのCalMRLを提案する。
論文 参考訳(メタデータ) (2025-11-15T05:01:43Z) - Filling the Gaps: A Multitask Hybrid Multiscale Generative Framework for Missing Modality in Remote Sensing Semantic Segmentation [28.992992584085787]
マルチモーダル学習は、通常の単調モデルと比較して大きな性能向上を示した。
現実のシナリオでは、センサーの故障と悪天候のためにマルチモーダル信号が欠落する可能性がある。
本稿では,これらの制約に対処するために,GEMMNet(Generative-Enhanced MultiModal Learning Network)を提案する。
論文 参考訳(メタデータ) (2025-09-14T05:40:35Z) - CLIP Meets Diffusion: A Synergistic Approach to Anomaly Detection [49.11819337853632]
異常検出は、異常の定義の曖昧さ、異常型の多様性、トレーニングデータの不足による複雑な問題である。
識別的基盤モデルと生成的基礎モデルの両方を活用するCLIPfusionを提案する。
本手法は, 異常検出の多面的課題に対処する上で, マルチモーダル・マルチモデル融合の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-13T13:30:15Z) - Bridging the inference gap in Mutimodal Variational Autoencoders [6.246098300155483]
マルチモーダル変分オートエンコーダは、観測されたモダリティから観測されていないモダリティを生成するための多目的でスケーラブルな方法を提供する。
エキスパートの混合集合を用いた最近のモデルは、複雑なデータセットにおける生成品質を制限する理論的に基礎的な制限に悩まされている。
本稿では,混合アグリゲーションを導入することなく,結合分布と条件分布の両方を学習できる新しい解釈可能なモデルを提案する。
論文 参考訳(メタデータ) (2025-02-06T10:43:55Z) - Dual adversarial and contrastive network for single-source domain generalization in fault diagnosis [1.9389881806157316]
本稿では,単一ソース領域の一般化故障診断のための二重対角コントラストネットワーク(DAC)を提案する。
DACの主な考え方は、多様なサンプル特徴を生成し、ドメイン不変の特徴表現を抽出することである。
テネシー・イーストマン・プロセスと連続旋回タンク・リアクターの実験は、DACが目に見えないモードで高い分類精度を達成することを示した。
論文 参考訳(メタデータ) (2024-07-19T02:06:41Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。