論文の概要: SNAT-YOLO: Efficient Cross-Layer Aggregation Network for Edge-Oriented Gangue Detection
- arxiv url: http://arxiv.org/abs/2502.05988v2
- Date: Tue, 18 Feb 2025 09:11:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:01:58.194608
- Title: SNAT-YOLO: Efficient Cross-Layer Aggregation Network for Edge-Oriented Gangue Detection
- Title(参考訳): SNAT-YOLO:エッジ指向ガング検出のための効率的なクロスレイアグリゲーションネットワーク
- Authors: Shang Li,
- Abstract要約: 本モデルでは,石炭ガン検出作業において99.10%の精度で検出を行う。
モデルサイズを38%減らし、パラメータ数を41%減らし、計算コストを40%減らし、画像毎の平均検出時間を1ミリ秒減らした。
- 参考スコア(独自算出の注目度): 1.7948767405202701
- License:
- Abstract: To address the issues of slow detection speed,low accuracy,difficulty in deployment on industrial edge devices,and large parameter and computational requirements in deep learning-based coal gangue target detection methods,we propose a lightweight coal gangue target detection algorithm based on an improved YOLOv11.First,we use the lightweight network ShuffleNetV2 as the backbone to enhance detection speed.Second,we introduce a lightweight downsampling operation,ADown,which reduces model complexity while improving average detection accuracy.Third,we improve the C2PSA module in YOLOv11 by incorporating the Triplet Attention mechanism,resulting in the proposed C2PSA-TriAtt module,which enhances the model's ability to focus on different dimensions of images.Fourth,we propose the Inner-FocalerIoU loss function to replace the existing CIoU loss function.Experimental results show that our model achieves a detection accuracy of 99.10% in coal gangue detection tasks,reduces the model size by 38%,the number of parameters by 41%,and the computational cost by 40%,while decreasing the average detection time per image by 1 ms.The improved model demonstrates enhanced detection speed and accuracy,making it suitable for deployment on industrial edge mobile devices,thus contributing positively to coal processing and efficient utilization of coal resources.
- Abstract(参考訳): 産業用エッジデバイスへの展開速度の遅さ,精度の低さ,産業用エッジデバイスへの展開の困難さ,および深層学習に基づく石炭ガンプ目標検出法における大きなパラメータおよび計算的要件の問題を解消するため,改良されたYOLOv11に基づいて,軽量ネットワークShuffleNetV2をバックボーンとして使用し,平均検出精度を向上しながらモデルの複雑さを低減した軽量ダウンサンプリング操作ADownを導入するとともに,提案したC2PSA-TriAtモジュールを組み込んで,提案したC2PSA-TriAtモジュールを再利用し,C2PSA-TriAtモジュールに再帰化することにより,C2PSA-TriAtモジュールを改良し,各画像にフォーカスする能力の向上を実現した。
関連論文リスト
- KAN-RCBEVDepth: A multi-modal fusion algorithm in object detection for autonomous driving [2.382388777981433]
本稿では, 自律走行における3次元物体検出の高速化を目的としたkan-RCBEVDepth法を提案する。
我々のユニークなBird’s Eye Viewベースのアプローチは、検出精度と効率を大幅に改善します。
コードはurlhttps://www.laitiamo.com/laitiamo/RCBEVDepth-KANでリリースされる。
論文 参考訳(メタデータ) (2024-08-04T16:54:49Z) - Lightweight wood panel defect detection method incorporating attention
mechanism and feature fusion network [9.775181958901326]
本稿では,注目機構と特徴融合ネットワークを組み込んだYOLOv5-LWという軽量な木材パネル欠陥検出手法を提案する。
提案手法は92.8%の精度でパラメータ数を27.78%削減し,計算量を41.25%圧縮し,検出速度を10.16%向上させる。
論文 参考訳(メタデータ) (2023-06-21T08:55:45Z) - Fast vehicle detection algorithm based on lightweight YOLO7-tiny [7.7600847187608135]
本稿では, YOLOv7-tiny (You Only Look Once Version 7) に基づく軽量車両検出アルゴリズムGhost-YOLOv7を提案する。
モデル幅を0.5に拡大し、バックボーンネットワークの標準畳み込みをゴースト畳み込みに置き換え、より軽量なネットワークを実現し、検出速度を向上させる。
ゴーストデクルードヘッド (Ghost Deouoled Head, GDH) は、車両の位置と種を正確に予測するために使用される。
論文 参考訳(メタデータ) (2023-04-12T17:28:30Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - Optimizing ship detection efficiency in SAR images [12.829941550630776]
船舶検出の速度と計算コストは、違法な漁獲を防ぐための時間的介入に不可欠である。
衛星画像のデータセットを用いて,畳み込みニューラルネットワーク(CNN)に基づく物体検出モデルを訓練した。
分類モデルを用いて、検出モデルの平均精度を44%で99.5%、25%で92.7%に近似できることを示した。
論文 参考訳(メタデータ) (2022-12-12T12:04:10Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Small Object Detection Based on Modified FSSD and Model Compression [7.387639662781843]
本稿では,FSSDに基づく小型物体検出アルゴリズムを提案する。
計算コストと記憶空間を削減するため, モデル圧縮を実現するためにプルーニングを行う。
アルゴリズムの平均精度(mAP)は、PASCAL VOCで80.4%、GTX1080tiで59.5 FPSに達する。
論文 参考訳(メタデータ) (2021-08-24T03:20:32Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。