論文の概要: MECAD: A multi-expert architecture for continual anomaly detection
- arxiv url: http://arxiv.org/abs/2512.15323v1
- Date: Wed, 17 Dec 2025 11:18:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.953918
- Title: MECAD: A multi-expert architecture for continual anomaly detection
- Title(参考訳): MECAD:連続異常検出のためのマルチエキスパートアーキテクチャ
- Authors: Malihe Dahmardeh, Francesco Setti,
- Abstract要約: マルチエキスパートアーキテクチャを用いた連続的異常検出のための新しいアプローチMECADを提案する。
本システムでは,特徴の類似性に基づいて,専門家をオブジェクトクラスに動的に割り当て,メモリ管理の効率化により,これまで見てきたクラスの知識を保存している。
- 参考スコア(独自算出の注目度): 2.119546870623332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose MECAD, a novel approach for continual anomaly detection using a multi-expert architecture. Our system dynamically assigns experts to object classes based on feature similarity and employs efficient memory management to preserve the knowledge of previously seen classes. By leveraging an optimized coreset selection and a specialized replay buffer mechanism, we enable incremental learning without requiring full model retraining. Our experimental evaluation on the MVTec AD dataset demonstrates that the optimal 5-expert configuration achieves an average AUROC of 0.8259 across 15 diverse object categories while significantly reducing knowledge degradation compared to single-expert approaches. This framework balances computational efficiency, specialized knowledge retention, and adaptability, making it well-suited for industrial environments with evolving product types.
- Abstract(参考訳): 本稿では,マルチエキスパートアーキテクチャを用いた連続異常検出手法MECADを提案する。
本システムでは,特徴の類似性に基づいて,専門家をオブジェクトクラスに動的に割り当て,メモリ管理の効率化により,これまで見てきたクラスの知識を保存している。
最適化されたコアセット選択と特別なリプレイバッファ機構を利用することで、完全なモデル再学習を必要とせずにインクリメンタルな学習を可能にする。
MVTec ADデータセットを用いた実験により, 最適5専門家構成は15種類の対象カテゴリの平均AUROC0.8259を達成し, シングルエキスパートアプローチと比較して知識劣化を著しく低減することを示した。
このフレームワークは、計算効率、専門知識保持、適応性のバランスをとり、進化する製品タイプの産業環境に適している。
関連論文リスト
- Adaptive Graph Mixture of Residual Experts: Unsupervised Learning on Diverse Graphs with Heterogeneous Specialization [17.89950704690598]
我々は、グラフ上の不均一なMoEの堅牢で完全に教師なしのトレーニングを可能にする、原則化されたフレームワークであるADaMoREを紹介する。
構造認識型ゲーティングネットワークは、きめ細かいノードルーティングを実行する。
私たちの設計はデータ効率とトレーニングの安定性を改善します。
論文 参考訳(メタデータ) (2025-10-24T07:18:24Z) - Training Matryoshka Mixture-of-Experts for Elastic Inference-Time Expert Utilization [60.309915093470416]
Matryoshka MoE(M-MoE)は、エキスパートアンサンブルに直接粗い構造を注入するトレーニングフレームワークである。
私たちの作業は、大規模MOEモデルのより実用的で適応可能なデプロイメントの道を開くものです。
論文 参考訳(メタデータ) (2025-09-30T16:56:44Z) - Mixture of Experts in Large Language Models [3.1494372222592224]
MoEアーキテクチャは、最小の計算オーバーヘッドを維持しながら、モデルパフォーマンスを大幅に向上させる。
本分析では,モデルキャパシティの向上,タスク固有性能の向上,モデルキャパシティの効率向上など,MoEの重要なメリットを明らかにした。
このレビューでは、現在の研究の制限、オープンな課題、将来的な方向性について概説し、MoEアーキテクチャとそのアプリケーションにおける継続的なイノベーションの基礎を提供する。
論文 参考訳(メタデータ) (2025-07-15T10:36:43Z) - MoE-MLoRA for Multi-Domain CTR Prediction: Efficient Adaptation with Expert Specialization [0.0]
MoE-MLoRAはエキスパートの混成フレームワークで、各専門家はドメインを専門にするために独立して訓練される。
MoE-MLoRAはMovielensとTaobaoの8つのCTRモデルで評価した。
論文 参考訳(メタデータ) (2025-06-09T09:03:05Z) - Convergence Rates for Softmax Gating Mixture of Experts [78.3687645289918]
機械学習モデルの効率性とスケーラビリティを向上するための効果的なフレームワークとして、Mixture of Expert (MoE)が登場した。
MoEの成功の中心は、適応的なソフトマックスゲーティングメカニズムであり、各専門家の入力に対する関連性を決定する責任を負い、それぞれの重みを動的に専門家に割り当てる。
標準ソフトマックスゲーティングまたはその変種を備えたMoEの下で,パラメータ推定と専門家推定の収束解析を行い,密度とスパースゲーティングと階層ソフトマックスゲーティングを含む。
論文 参考訳(メタデータ) (2025-03-05T06:11:24Z) - Diversifying the Expert Knowledge for Task-Agnostic Pruning in Sparse Mixture-of-Experts [75.85448576746373]
本稿では,モデルのパラメータ効率を向上させるために,類似の専門家をグループ化し,グループ化する方法を提案する。
提案手法の有効性を3つの最先端MoEアーキテクチャを用いて検証する。
評価の結果,本手法は自然言語タスクにおいて,他のモデルプルーニング手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-07-12T17:25:02Z) - Multiple Expert Brainstorming for Domain Adaptive Person
Re-identification [140.3998019639158]
本稿では、ドメイン適応型人物再IDのための複数の専門家ブレインストーミングネットワーク(MEB-Net)を提案する。
MEB-Netは、異なるアーキテクチャを持つ複数のネットワークをソースドメイン内で事前トレーニングする、相互学習戦略を採用している。
大規模データセットの実験は、最先端技術よりもMEB-Netの方が優れた性能を示している。
論文 参考訳(メタデータ) (2020-07-03T08:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。