論文の概要: AW-MoE: All-Weather Mixture of Experts for Robust Multi-Modal 3D Object Detection
- arxiv url: http://arxiv.org/abs/2603.16261v1
- Date: Tue, 17 Mar 2026 08:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.181632
- Title: AW-MoE: All-Weather Mixture of Experts for Robust Multi-Modal 3D Object Detection
- Title(参考訳): AW-MoE:ロバストなマルチモード3Dオブジェクト検出のためのエキスパートのオールウェザーミックス
- Authors: Hongwei Lin, Xun Huang, Chenglu Wen, Cheng Wang,
- Abstract要約: AW-MoE は、Mixture of Experts (MoE) を天候にやさしいマルチモーダル3Dオブジェクト検出アプローチに統合するフレームワークである。
IWRは、データ不一致を処理するトップKの気象専門家(WSE)を選択する。
同期LiDARと4Dレーダのデュアルモーダルデータ拡張のための統一デュアルモーダル拡張(UDMA)を提案する。
- 参考スコア(独自算出の注目度): 28.2299577324803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust 3D object detection under adverse weather conditions is crucial for autonomous driving. However, most existing methods simply combine all weather samples for training while overlooking data distribution discrepancies across different weather scenarios, leading to performance conflicts. To address this issue, we introduce AW-MoE, the framework that innovatively integrates Mixture of Experts (MoE) into weather-robust multi-modal 3D object detection approaches. AW-MoE incorporates Image-guided Weather-aware Routing (IWR), which leverages the superior discriminability of image features across weather conditions and their invariance to scene variations for precise weather classification. Based on this accurate classification, IWR selects the top-K most relevant Weather-Specific Experts (WSE) that handle data discrepancies, ensuring optimal detection under all weather conditions. Additionally, we propose a Unified Dual-Modal Augmentation (UDMA) for synchronous LiDAR and 4D Radar dual-modal data augmentation while preserving the realism of scenes. Extensive experiments on the real-world dataset demonstrate that AW-MoE achieves ~ 15% improvement in adverse-weather performance over state-of-the-art methods, while incurring negligible inference overhead. Moreover, integrating AW-MoE into established baseline detectors yields performance improvements surpassing current state-of-the-art methods. These results show the effectiveness and strong scalability of our AW-MoE. We will release the code publicly at https://github.com/windlinsherlock/AW-MoE.
- Abstract(参考訳): 悪天候下でのロバストな3D物体検出は、自動運転に不可欠である。
しかしながら、既存のほとんどの手法は、異なる気象シナリオにまたがるデータ分散の相違を見越しながら、トレーニングのためのすべての気象サンプルを組み合わせるだけで、パフォーマンス上の矛盾が生じます。
AW-MoEは、Mixture of Experts(MoE)を天気にやさしいマルチモーダル3Dオブジェクト検出アプローチに革新的に統合するフレームワークである。
AW-MoEにはIWR(Image-Guided Weather-Aware Routing)が組み込まれている。
この正確な分類に基づいて、IWRはデータ不一致を処理し、すべての気象条件下で最適な検出を確実にする最上位の気象専門家(WSE)を選択する。
さらに、シーンのリアリズムを保ちながら、同期LiDARと4D Radarのデュアルモーダルデータ拡張のための統一デュアルモーダル拡張(UDMA)を提案する。
実世界のデータセットに対する大規模な実験により、AW-MoEは最先端の手法よりも悪天候性能が約15%向上し、無視可能な推論オーバーヘッドが生じることを示した。
さらに、AW-MoEを確立されたベースライン検出器に統合すると、現在の最先端手法よりも性能が向上する。
これらの結果は,AW-MoEの有効性とスケーラビリティを示す。
コードはhttps://github.com/windlinsherlock/AW-MoE.comで公開します。
関連論文リスト
- Diffusion-Based Restoration for Multi-Modal 3D Object Detection in Adverse Weather [15.57759675028067]
DiffFusionは、挑戦的な天候における堅牢性を高めるために設計された新しいフレームワークである。
私たちのキーとなる洞察は、拡散モデルはデータをノイズ化し、生成する強力な能力を持っているということです。
DiffFusionの実装はオープンソースとしてリリースされます。
論文 参考訳(メタデータ) (2025-12-15T09:03:46Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - Robust Modality-incomplete Anomaly Detection: A Modality-instructive Framework with Benchmark [69.02666229531322]
モダリティ不完全産業異常検出(MIIAD)の先駆的研究を紹介する。
その結果,既存のMIAD手法はMIIADベンチでは性能が悪く,性能が著しく低下していることが判明した。
本稿では,新しい2段階のロバストモードアリティファジングと検出フレームwoRk(RADAR)を提案する。
論文 参考訳(メタデータ) (2024-10-02T16:47:55Z) - UniBEVFusion: Unified Radar-Vision BEVFusion for 3D Object Detection [2.123197540438989]
多くのレーダービジョン融合モデルではレーダーを希薄なLiDARとして扱い、レーダー固有の情報を過小評価している。
本稿では,レーダー固有データを深度予測プロセスに統合したRDLモジュールを提案する。
また、異なるモードでBEV機能を抽出するUnified Feature Fusion (UFF)アプローチも導入する。
論文 参考訳(メタデータ) (2024-09-23T06:57:27Z) - MonoWAD: Weather-Adaptive Diffusion Model for Robust Monocular 3D Object Detection [22.277210748714378]
既存の手法は主に理想的な気象条件下での3D検出に重点を置いており、明瞭で最適な視界を持つシナリオが特徴である。
気象適応拡散モデルを用いた新規な気象ロバストなモノクロ3D物体検出器MonoWADを紹介する。
様々な気象条件下での実験では、MonoWADは天候に乱れたモノクロ3D物体の検出を達成している。
論文 参考訳(メタデータ) (2024-07-23T12:58:49Z) - WEDGE: A multi-weather autonomous driving dataset built from generative
vision-language models [51.61662672912017]
本稿では,視覚言語生成モデルを用いて生成した合成データセットWEDGEを紹介する。
WEDGEは16の極度の気象条件で3360枚の画像で構成され、16513個の境界ボックスを手動で注釈付けしている。
53.87%の検定精度と45.41mAPで分類・検出のためのベースライン性能を確立した。
論文 参考訳(メタデータ) (2023-05-12T14:42:47Z) - WM-MoE: Weather-aware Multi-scale Mixture-of-Experts for Blind Adverse Weather Removal [38.257012295118145]
Mixture-of-Experts (MoE) は、学習可能なゲートを採用して、入力を異なる専門家ネットワークにルーティングする人気モデルである。
本稿では, 視覚障害者の視覚障害者のためのTransformer を用いた気象対応マルチスケールMOE (WM-MoE) を提案する。
本手法は,2つのパブリックデータセットとデータセットに対して,盲点悪天候除去における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T01:46:25Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。