論文の概要: Fab-ME: A Vision State-Space and Attention-Enhanced Framework for Fabric Defect Detection
- arxiv url: http://arxiv.org/abs/2412.03200v2
- Date: Thu, 05 Dec 2024 16:02:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 11:19:26.201302
- Title: Fab-ME: A Vision State-Space and Attention-Enhanced Framework for Fabric Defect Detection
- Title(参考訳): Fab-ME:ファブリック欠陥検出のためのビジョン状態空間と注意力強化フレームワーク
- Authors: Shuai Wang, Huiyan Kong, Baotian Li, Fa Zheng,
- Abstract要約: YOLOv8sをベースとした先進的なフレームワークであるFab-MEを提案し,20種類のファブリック欠陥を正確に検出する。
コントリビューションには2つのコンボリューション(C2F)ビジョン状態空間(C2F-VMamba)モジュールによるクロスステージ部分ボトルネックの導入が含まれている。
Tianchiファブリック欠陥検出データセットの実験結果から、Fab-MEは元のYOLOv8と比べてmAP@0.5で3.5%改善していることがわかった。
- 参考スコア(独自算出の注目度): 4.272401529389713
- License:
- Abstract: Effective defect detection is critical for ensuring the quality, functionality, and economic value of textile products. However, existing methods face challenges in achieving high accuracy, real-time performance, and efficient global information extraction. To address these issues, we propose Fab-ME, an advanced framework based on YOLOv8s, specifically designed for the accurate detection of 20 fabric defect types. Our contributions include the introduction of the cross-stage partial bottleneck with two convolutions (C2F) vision state-space (C2F-VMamba) module, which integrates visual state-space (VSS) blocks into the YOLOv8s feature fusion network neck, enhancing the capture of intricate details and global context while maintaining high processing speeds. Additionally, we incorporate an enhanced multi-scale channel attention (EMCA) module into the final layer of the feature extraction network, significantly improving sensitivity to small targets. Experimental results on the Tianchi fabric defect detection dataset demonstrate that Fab-ME achieves a 3.5% improvement in mAP@0.5 compared to the original YOLOv8s, validating its effectiveness for precise and efficient fabric defect detection.
- Abstract(参考訳): 効果的な欠陥検出は、繊維製品の品質、機能性、経済的価値を保証するために重要である。
しかし,既存の手法では,高精度,リアルタイム性能,効率的なグローバル情報抽出という課題に直面している。
このような問題に対処するために, YOLOv8sをベースとした高度なフレームワークであるFab-MEを提案する。
我々の貢献は、2つの畳み込み(C2F)ビジョン状態空間(C2F-VMamba)モジュールによるクロスステージ部分ボトルネックの導入である。
さらに,機能抽出ネットワークの最終層に拡張マルチスケールチャネルアテンション (EMCA) モジュールを組み込み,小型ターゲットに対する感度を著しく向上する。
Tianchiファブリック欠陥検出データセットの実験結果から、Fab-MEは元のYOLOv8と比べてmAP@0.5の3.5%の改善を実現し、その正確かつ効率的なファブリック欠陥検出の有効性を検証した。
関連論文リスト
- SPFFNet: Strip Perception and Feature Fusion Spatial Pyramid Pooling for Fabric Defect Detection [0.0]
YOLOv11に基づくファブリック欠陥検出モデルを提案する。
SPM(Strip Perception Module)を導入し,マルチスケールのコンボリューションにより機能キャプチャを改善する。
また,適応重み付き共振器(FECIoU)の新たな拡張完全交叉法を提案する。
論文 参考訳(メタデータ) (2025-02-03T15:33:11Z) - High-Precision Fabric Defect Detection via Adaptive Shape Convolutions and Large Kernel Spatial Modeling [9.684264979461148]
本稿では,YOLOv8sアーキテクチャ上に構築されたファブリック欠陥検出フレームワークであるFab-ASLKSを紹介する。
我々は,Fab-ASLKSがmAP@50をベースラインに5%改善し,精度と効率性を実現する能力を示した。
論文 参考訳(メタデータ) (2025-01-24T02:53:59Z) - YOLO-ELA: Efficient Local Attention Modeling for High-Performance Real-Time Insulator Defect Detection [0.0]
無人航空機からの絶縁体欠陥検出のための既存の検出方法は、複雑な背景や小さな物体と競合する。
本稿では,この課題に対処するため,新しい注目基盤アーキテクチャであるYOLO-ELAを提案する。
高分解能UAV画像による実験結果から,本手法は96.9% mAP0.5,リアルタイム検出速度74.63フレーム/秒を実現した。
論文 参考訳(メタデータ) (2024-10-15T16:00:01Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Joint Attention-Guided Feature Fusion Network for Saliency Detection of
Surface Defects [69.39099029406248]
本稿では,エンコーダ・デコーダネットワークに基づく表面欠陥検出のための共同注意誘導型特徴融合ネットワーク(JAFFNet)を提案する。
JAFFNetは、主にJAFFモジュールをデコードステージに組み込んで、低レベルと高レベルの機能を適応的に融合させる。
SD- Saliency-900, Magnetic tile, and DAGM 2007 で行った実験から,本手法が他の最先端手法と比較して有望な性能を達成できたことが示唆された。
論文 参考訳(メタデータ) (2024-02-05T08:10:16Z) - CINFormer: Transformer network with multi-stage CNN feature injection
for surface defect segmentation [73.02218479926469]
表面欠陥分割のための多段CNN特徴注入を用いた変圧器ネットワークを提案する。
CINFormerは、入力画像のマルチレベルCNN機能をエンコーダ内のトランスフォーマーネットワークの異なるステージに注入する、シンプルだが効果的な機能統合機構を提供する。
さらに、CINFormerはTop-Kセルフアテンションモジュールを提供し、欠陥に関するより重要な情報を持つトークンにフォーカスする。
論文 参考訳(メタデータ) (2023-09-22T06:12:02Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - Lightweight wood panel defect detection method incorporating attention
mechanism and feature fusion network [9.775181958901326]
本稿では,注目機構と特徴融合ネットワークを組み込んだYOLOv5-LWという軽量な木材パネル欠陥検出手法を提案する。
提案手法は92.8%の精度でパラメータ数を27.78%削減し,計算量を41.25%圧縮し,検出速度を10.16%向上させる。
論文 参考訳(メタデータ) (2023-06-21T08:55:45Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - LF-YOLO: A Lighter and Faster YOLO for Weld Defect Detection of X-ray
Image [7.970559381165446]
畳み込みニューラルネットワーク(CNN)に基づく溶接欠陥検出手法,すなわちLighter and Faster YOLO(LF-YOLO)を提案する。
検出ネットワークの性能向上のために,効率的な特徴抽出(EFE)モジュールを提案する。
その結果, 溶接欠陥ネットワークは性能と消費のバランスが良好であり, 61.5 FPSの92.9 mAP50に達することがわかった。
論文 参考訳(メタデータ) (2021-10-28T12:19:32Z) - Salient Object Detection via Integrity Learning [104.13483971954233]
整合性とは、ある有能な対象に属するすべての部分を強調する概念である。
ICON(Inteinity Cognition Network)の設計により,高感度物体検出のための整合性学習を容易にする。
ICONは3つの重要なコンポーネントを探索し、強力な整合性機能を学びます。
論文 参考訳(メタデータ) (2021-01-19T14:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。