論文の概要: Adapted-MoE: Mixture of Experts with Test-Time Adaption for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2409.05611v1
- Date: Mon, 9 Sep 2024 13:49:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 14:39:56.548524
- Title: Adapted-MoE: Mixture of Experts with Test-Time Adaption for Anomaly Detection
- Title(参考訳): Adapted-MoE: 異常検出のためのテスト時間適応とエキスパートの混合
- Authors: Tianwu Lei, Silin Chen, Bohan Wang, Zhengkai Jiang, Ningmu Zou,
- Abstract要約: そこで本稿では,同カテゴリの複数の分布を分割・分割して処理するAdapted-MoEを提案する。
具体的には,同じカテゴリのサンプルをサブクラスの特徴空間にルーティングする表現学習に基づくルーティングネットワークを提案する。
本研究では,未確認のサンプル表現と専門家モデルで学習した特徴分布の偏りを取り除くために,テスト時間適応を提案する。
- 参考スコア(独自算出の注目度): 10.12283550685127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most unsupervised anomaly detection methods based on representations of normal samples to distinguish anomalies have recently made remarkable progress. However, existing methods only learn a single decision boundary for distinguishing the samples within the training dataset, neglecting the variation in feature distribution for normal samples even in the same category in the real world. Furthermore, it was not considered that a distribution bias still exists between the test set and the train set. Therefore, we propose an Adapted-MoE which contains a routing network and a series of expert models to handle multiple distributions of same-category samples by divide and conquer. Specifically, we propose a routing network based on representation learning to route same-category samples into the subclasses feature space. Then, a series of expert models are utilized to learn the representation of various normal samples and construct several independent decision boundaries. We propose the test-time adaption to eliminate the bias between the unseen test sample representation and the feature distribution learned by the expert model. Our experiments are conducted on a dataset that provides multiple subclasses from three categories, namely Texture AD benchmark. The Adapted-MoE significantly improves the performance of the baseline model, achieving 2.18%-7.20% and 1.57%-16.30% increase in I-AUROC and P-AUROC, which outperforms the current state-of-the-art methods. Our code is available at https://github.com/.
- Abstract(参考訳): 異常を識別する正常標本の表現に基づく非教師付き異常検出法は,近年顕著な進歩を遂げている。
しかし、既存の手法では、トレーニングデータセット内のサンプルを識別するための単一の決定境界のみを学習し、実世界の同じカテゴリであっても、通常のサンプルの特徴分布の変化を無視する。
さらに,テストセットと列車セットの間には,まだ分布バイアスが存在するとは考えられなかった。
そこで本研究では、ルーティングネットワークと一連のエキスパートモデルを含むAdapted-MoEを提案する。
具体的には,同じカテゴリのサンプルをサブクラスの特徴空間にルーティングする表現学習に基づくルーティングネットワークを提案する。
次に、一連の専門家モデルを用いて、様々な正規サンプルの表現を学び、いくつかの独立した決定境界を構築する。
本研究では,未確認のサンプル表現と専門家モデルで学習した特徴分布の偏りを取り除くために,テスト時間適応を提案する。
実験は、3つのカテゴリ、すなわちTexture ADベンチマークから複数のサブクラスを提供するデータセット上で実施される。
Adapted-MoEはベースラインモデルの性能を大幅に改善し、2.18%-7.20%と1.57%-16.30%のI-AUROCとP-AUROCが増加し、現在の最先端の手法を上回った。
私たちのコードはhttps://github.com/で公開されています。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Out-of-Distribution Detection with a Single Unconditional Diffusion Model [54.15132801131365]
アウト・オブ・ディストリビューション(OOD)検出は、異常サンプルを特定しようとする機械学習において重要なタスクである。
従来、教師なし手法はOOD検出に深い生成モデルを用いていた。
本稿では,単一モデルが多様なタスクに対してOOD検出を行うことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T08:54:03Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Debiased Sample Selection for Combating Noisy Labels [24.296451733127956]
サンプル選択におけるバイアス学習のためのnoIse-Tolerant Expert Model (ITEM)を提案する。
具体的には、トレーニングバイアスを軽減するために、複数の専門家と統合した堅牢なネットワークアーキテクチャを設計します。
2つのクラス識別型ミニバッチの混合によるトレーニングにより、モデルが不均衡なトレーニングセットの効果を緩和する。
論文 参考訳(メタデータ) (2024-01-24T10:37:28Z) - The SVHN Dataset Is Deceptive for Probabilistic Generative Models Due to
a Distribution Mismatch [12.542073306638988]
Street View House Numbersデータセットは、ディープラーニングにおける人気のあるベンチマークデータセットである。
SVHNデータセットのトレーニングセットとテストセットに公式の分割が同じ分布から引き出されていないことを警告する。
本稿では,SVHNが分類以外のタスクに使用される場合に,公式のトレーニングセットとテストセットを混合して再分割することを提案する。
論文 参考訳(メタデータ) (2023-10-30T15:38:31Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Improving Long-Tailed Classification from Instance Level [34.10943893320389]
長期分類を改善するために2つのインスタンスレベルコンポーネントを提案する。
1つ目は適応ロジット調整(ALA)損失であり、ロジットに適応調整項を適用する。
2つ目はMixture-of-Experts (MoE)ネットワークで、マルチエキスパートモジュールとインスタンス対応ルーティングモジュールを含んでいる。
論文 参考訳(メタデータ) (2021-04-13T11:00:19Z) - Multi-Class Data Description for Out-of-distribution Detection [25.853322158250435]
Deep-MCDDは、分布外(OOD)サンプルを検出するだけでなく、分布内(ID)サンプルを分類するのに効果的です。
ガウス微分分析の概念をディープニューラルネットワークに統合することにより,クラス条件分布を学習する深層学習目標を提案する。
論文 参考訳(メタデータ) (2021-04-02T08:41:51Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。