論文の概要: Dual-Stage Reweighted MoE for Long-Tailed Egocentric Mistake Detection
- arxiv url: http://arxiv.org/abs/2509.12990v1
- Date: Tue, 16 Sep 2025 12:00:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.066649
- Title: Dual-Stage Reweighted MoE for Long-Tailed Egocentric Mistake Detection
- Title(参考訳): 二段重み付けMOEによる遠心性不一致検出
- Authors: Boyu Han, Qianqian Xu, Shilong Bao, Zhiyong Yang, Sicong Li, Qingming Huang,
- Abstract要約: 本稿では,微妙で頻繁なミスによって生じる課題に対処するため,Dual-Stage Reweighted Mixture-of-Experts (DR-MoE) フレームワークを提案する。
提案手法は,特に稀かつ曖昧な誤りの特定において,高い性能を達成する。
- 参考スコア(独自算出の注目度): 85.0189917888094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we address the problem of determining whether a user performs an action incorrectly from egocentric video data. To handle the challenges posed by subtle and infrequent mistakes, we propose a Dual-Stage Reweighted Mixture-of-Experts (DR-MoE) framework. In the first stage, features are extracted using a frozen ViViT model and a LoRA-tuned ViViT model, which are combined through a feature-level expert module. In the second stage, three classifiers are trained with different objectives: reweighted cross-entropy to mitigate class imbalance, AUC loss to improve ranking under skewed distributions, and label-aware loss with sharpness-aware minimization to enhance calibration and generalization. Their predictions are fused using a classification-level expert module. The proposed method achieves strong performance, particularly in identifying rare and ambiguous mistake instances. The code is available at https://github.com/boyuh/DR-MoE.
- Abstract(参考訳): 本稿では,エゴセントリックなビデオデータからユーザが誤ってアクションを実行するかどうかを判断する問題に対処する。
微妙で頻繁なミスによって生じる課題に対処するため,Dual-Stage Reweighted Mixture-of-Experts (DR-MoE) フレームワークを提案する。
第1段階では,凍結型ViViTモデルとLoRA調整型ViViTモデルを用いて特徴抽出を行う。
第2段階では、クラス不均衡を緩和するためのクロスエントロピーの再重み付け、スキュード分布下でのランキング改善のためのAUC損失、キャリブレーションと一般化を向上するためのシャープネス対応の最小化によるラベル認識損失の3つの分類器を訓練する。
それらの予測は、分類レベルのエキスパートモジュールを使って融合される。
提案手法は,特に稀かつ曖昧な誤りの特定において,高い性能を達成する。
コードはhttps://github.com/boyuh/DR-MoE.comで公開されている。
関連論文リスト
- Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free [81.65559031466452]
我々は、ゲーティング強化ソフトマックスアテンションの変種を調べる実験を行った。
SDPA(Scaled Dot-Product Attention)後の頭部特異的シグモイドゲートを簡易に修正することで,性能が向上することがわかった。
論文 参考訳(メタデータ) (2025-05-10T17:15:49Z) - Robust Duality Learning for Unsupervised Visible-Infrared Person Re-Identification [24.24793934981947]
擬似ラベルノイズ(PLN)を考慮した新しい学習パラダイムを提案する。
PLNはノイズオーバーフィット、エラー蓄積、ノイズの多いクラスタ対応の3つの主要な課題によって特徴づけられる。
UVI-ReIDのためのロバスト・デュナリティ学習フレームワーク(RoDE)を提案する。
論文 参考訳(メタデータ) (2025-05-05T10:36:52Z) - UPCORE: Utility-Preserving Coreset Selection for Balanced Unlearning [57.081646768835704]
ユーザ仕様や法的フレームワークは、しばしば、大きな言語モデル(LLM)を含む、事前訓練されたモデルから削除される情報を必要とする。
これは、既に訓練済みのモデルからデータポイントのセットを削除または"偽造"する必要がある。
本研究では,非学習時の副次的損傷を軽減するための手法に依存しないデータ選択フレームワークUPCOREを提案する。
論文 参考訳(メタデータ) (2025-02-20T22:51:10Z) - Dual Compensation Residual Networks for Class Imbalanced Learning [98.35401757647749]
そこで本研究では,尾と頭の両方に適合する2次元補償残差ネットワークを提案する。
オーバーフィッティングを引き起こす重要な要因は、トレーニングとテールクラスのテストデータの間に深刻な特徴ドリフトがあることである。
また,不適合問題を軽減するためにResidual Balanced Multi-Proxies分類器を提案する。
論文 参考訳(メタデータ) (2023-08-25T04:06:30Z) - Anomaly Detection via Multi-Scale Contrasted Memory [3.0170109896527086]
マルチスケールの標準プロトタイプをトレーニング中に記憶し,異常偏差値を計算する2段階の異常検出器を新たに導入する。
CIFAR-10の誤差相対改善率を最大35%とすることにより,多種多様なオブジェクト,スタイル,局所異常に対する最先端性能を高い精度で向上させる。
論文 参考訳(メタデータ) (2022-11-16T16:58:04Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。