論文の概要: MS-YOLO: Infrared Object Detection for Edge Deployment via MobileNetV4 and SlideLoss
- arxiv url: http://arxiv.org/abs/2509.21696v1
- Date: Thu, 25 Sep 2025 23:48:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.074402
- Title: MS-YOLO: Infrared Object Detection for Edge Deployment via MobileNetV4 and SlideLoss
- Title(参考訳): MS-YOLO: MobileNetV4とSlideLossによるエッジデプロイメントのための赤外線オブジェクト検出
- Authors: Jiali Zhang, Thomas S. White, Haoliang Zhang, Wenqing Hu, Donald C. Wunsch II, Jian Liu,
- Abstract要約: 我々は YOLOv8 の CSPDarknet バックボーンを MobileNetV4 に置き換える textttMS-YOLO (textbfMobileNetv4 および textbfSlideLoss based YOLO) を提案する。
FLIR ADAS V2ベンチマークの実験では、 textttMS-YOLO は textbf6.7 GFLOPs でのみ動作しながら、競合する mAP と優れた精度を実現している。
- 参考スコア(独自算出の注目度): 5.1611618067239675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrared imaging has emerged as a robust solution for urban object detection under low-light and adverse weather conditions, offering significant advantages over traditional visible-light cameras. However, challenges such as class imbalance, thermal noise, and computational constraints can significantly hinder model performance in practical settings. To address these issues, we evaluate multiple YOLO variants on the FLIR ADAS V2 dataset, ultimately selecting YOLOv8 as our baseline due to its balanced accuracy and efficiency. Building on this foundation, we present \texttt{MS-YOLO} (\textbf{M}obileNetv4 and \textbf{S}lideLoss based on YOLO), which replaces YOLOv8's CSPDarknet backbone with the more efficient MobileNetV4, reducing computational overhead by \textbf{1.5%} while sustaining high accuracy. In addition, we introduce \emph{SlideLoss}, a novel loss function that dynamically emphasizes under-represented and occluded samples, boosting precision without sacrificing recall. Experiments on the FLIR ADAS V2 benchmark show that \texttt{MS-YOLO} attains competitive mAP and superior precision while operating at only \textbf{6.7 GFLOPs}. These results demonstrate that \texttt{MS-YOLO} effectively addresses the dual challenge of maintaining high detection quality while minimizing computational costs, making it well-suited for real-time edge deployment in urban environments.
- Abstract(参考訳): 赤外線イメージングは、低照度および悪天候下での都市物体検出の堅牢な解決策として現れており、従来の可視光カメラよりも大きな利点がある。
しかし, クラス不均衡, サーマルノイズ, 計算制約などの課題は, 実用環境でのモデル性能を著しく損なう可能性がある。
これらの問題に対処するため、FLIR ADAS V2データセット上で複数のYOLO変異を評価し、そのバランスの取れた精度と効率のために最終的にYOLOv8をベースラインとして選択した。
この基盤の上に構築した \texttt{MS-YOLO} (\textbf{M}obileNetv4 と \textbf{S}lideLoss based YOLO) は YOLOv8 の CSPDarknet バックボーンをより効率的な MobileNetV4 に置き換え、高い精度を維持しながら \textbf{1.5%} による計算オーバーヘッドを削減する。
さらに,未表現および隠蔽サンプルを動的に強調し,リコールを犠牲にすることなく精度を向上する新規な損失関数 \emph{SlideLoss} を導入する。
FLIR ADAS V2ベンチマークの実験によると、 \texttt{MS-YOLO} は \textbf{6.7 GFLOPs} でのみ動作しながら、競争力のある mAP と優れた精度が得られる。
これらの結果から,<texttt{MS-YOLO} は,都市環境におけるリアルタイムエッジ展開に適した計算コストを最小化しながら,高検出品質を維持するという2つの課題に効果的に対処できることが示唆された。
関連論文リスト
- A Comparative Study of YOLOv8 to YOLOv11 Performance in Underwater Vision Tasks [0.0]
YOLOファミリーの1段階検出器は、単一の低遅延ネットワークで局所化と分類を融合するため、魅力的である。
比較操作条件にまたがる2つのデータセットをキュレートする。コーラル病セット(4,480イメージ、18クラス)と魚種セット(7,500イメージ、20クラス)である。
YOLOvs, YOLOv9-s, YOLOv10-s, YOLOv11-sを同一のハイパー参照でトレーニングし, 精度, リコール, mAP50, mAP50-95, 画像毎の推論時間, フレーム毎秒(FPS)を評価する。
論文 参考訳(メタデータ) (2025-09-16T05:12:59Z) - Light-Weight Cross-Modal Enhancement Method with Benchmark Construction for UAV-based Open-Vocabulary Object Detection [6.443926939309045]
我々は,データセット構築とモデル革新を組み合わせた完全なUAV指向ソリューションを提案する。
まず, アノテーションの冗長性, 不整合性, 曖昧性を効率的に解決する改良されたUAV-Labelエンジンを設計する。
第2に,クロスアテンション,アダプティブ・ゲーティング,グローバルFILM変調を統合した高機能なデュアルパス融合設計であるクロスアテンション・ゲーテッド・エンハンスメント(CAGE)モジュールを導入する。
論文 参考訳(メタデータ) (2025-09-07T10:59:02Z) - YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - MODIPHY: Multimodal Obscured Detection for IoT using PHantom Convolution-Enabled Faster YOLO [10.183459286746196]
YOLO Phantomは、史上最小のYOLOモデルのひとつです。
YOLO Phantomは最新のYOLOv8nモデルと同等の精度を実現し、パラメータとモデルサイズを同時に削減する。
実際の有効性は、高度な低照度カメラとRGBカメラを備えたIoTプラットフォーム上で実証され、AWSベースの通知エンドポイントにシームレスに接続される。
論文 参考訳(メタデータ) (2024-02-12T18:56:53Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。