論文の概要: CBAM-SwinT-BL: Small Rail Surface Detect Detection Method Based on Swin Transformer with Block Level CBAM Enhancement
- arxiv url: http://arxiv.org/abs/2409.20113v1
- Date: Mon, 30 Sep 2024 09:11:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 18:56:57.477542
- Title: CBAM-SwinT-BL: Small Rail Surface Detect Detection Method Based on Swin Transformer with Block Level CBAM Enhancement
- Title(参考訳): CBAM-SwinT-BL:ブロックレベルCBAM強化スウィントランスを用いた小型鉄道表面検出法
- Authors: Jiayi Zhao, Alison Wun-lam Yeung, Ali Muhammad, Songjiang Lai, Vincent To-Yee NG,
- Abstract要約: 本研究では, Swin Transformer (SwinT) をベースラインとして, Convolutional Block Attention Module (CBAM) を組み込んで拡張する。
提案手法は,スウィントランスブロックにCBAMを組み込むことにより,レール欠陥検出の性能を著しく向上させる。
実験およびアブレーション研究は、このフレームワークの有効性を証明した。
- 参考スコア(独自算出の注目度): 2.48550866840644
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Under high-intensity rail operations, rail tracks endure considerable stresses resulting in various defects such as corrugation and spellings. Failure to effectively detect defects and provide maintenance in time would compromise service reliability and public safety. While advanced models have been developed in recent years, efficiently identifying small-scale rail defects has not yet been studied, especially for categories such as Dirt or Squat on rail surface. To address this challenge, this study utilizes Swin Transformer (SwinT) as baseline and incorporates the Convolutional Block Attention Module (CBAM) for enhancement. Our proposed method integrates CBAM successively within the swin transformer blocks, resulting in significant performance improvement in rail defect detection, particularly for categories with small instance sizes. The proposed framework is named CBAM-Enhanced Swin Transformer in Block Level (CBAM-SwinT-BL). Experiment and ablation study have proven the effectiveness of the framework. The proposed framework has a notable improvement in the accuracy of small size defects, such as dirt and dent categories in RIII dataset, with mAP-50 increasing by +23.0% and +38.3% respectively, and the squat category in MUET dataset also reaches +13.2% higher than the original model. Compares to the original SwinT, CBAM-SwinT-BL increase overall precision around +5% in the MUET dataset and +7% in the RIII dataset, reaching 69.1% and 88.1% respectively. Meanwhile, the additional module CBAM merely extend the model training speed by an average of +0.04s/iteration, which is acceptable compared to the significant improvement in system performance.
- Abstract(参考訳): 高強度鉄道の下では、鉄道線路はかなりのストレスに耐え、腐食やスペルなどの様々な欠陥が生じた。
欠陥を効果的に検出し、時間内にメンテナンスを提供することで、サービスの信頼性と公共の安全を損なう。
近年、先進的なモデルが開発されているが、特にダートやスクワットなどの鉄道表面の小型鉄道欠陥を効率的に同定する研究はまだ行われていない。
この課題に対処するために,本研究では,Swin Transformer(SwinT)をベースラインとして,CBAM(Convolutional Block Attention Module)を組み込んで拡張する。
提案手法は,スイニングトランスブロックにCBAMを連続的に組み込むことで,鉄道欠陥検出,特に小型インスタンスサイズでの性能向上を実現している。
提案フレームワークはCBAM-Enhanced Swin Transformer in Block Level (CBAM-SwinT-BL)と名付けられた。
実験およびアブレーション研究は、このフレームワークの有効性を証明した。
提案したフレームワークは,RIIIデータセットの汚れやデントなどの小型欠陥の精度を著しく向上し,mAP-50はそれぞれ+23.0%,+38.3%増加し,MUETデータセットのスクワットカテゴリも+13.2%上昇した。
オリジナルのSwinTと比較すると、CBAM-SwinT-BLはMUETデータセットでは+5%、RIIIデータセットでは+7%の精度で、それぞれ69.1%と88.1%に達した。
一方、追加モジュールCBAMはモデルトレーニング速度を平均+0.04秒/イテレーションで拡張するだけで、システム性能の大幅な改善に比べて許容できる。
関連論文リスト
- BEA: Revisiting anchor-based object detection DNN using Budding Ensemble
Architecture [8.736601342033431]
Budding Ensemble Architecture(BEA)は、アンカーベースのオブジェクト検出モデルのための、新しい縮小アンサンブルアーキテクチャである。
BEAにおける損失関数は、信頼性スコアの校正を改善し、不確かさを低減させる。
論文 参考訳(メタデータ) (2023-09-14T21:54:23Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Stable and Efficient Adversarial Training through Local Linearization [0.5076419064097734]
カタストロフィックオーバーフィッティングと呼ばれる現象が観察されており、これは単一段階の防御でよく見られる。
本稿では, 壊滅的過度適合を緩和する新しい方法である, 安定かつ効率的な対人訓練(SEAT)を提案する。
PGD-50攻撃によるCIFAR-10の精度は51%, PGD-50攻撃下では半径8/255$のl_infty$摂動が可能である。
論文 参考訳(メタデータ) (2022-10-11T11:57:37Z) - ERNIE-SPARSE: Learning Hierarchical Efficient Transformer Through
Regularized Self-Attention [48.697458429460184]
情報ボトルネック感度と異なる注目トポロジ間の不整合の2つの要因がスパース変換器の性能に影響を及ぼす可能性がある。
本稿では,ERNIE-Sparseというモデルを提案する。
i) 局所情報とグローバル情報を逐次統一する階層スパース変換器(HST) と、(ii) 注意トポロジの異なる変換器の距離を最小化する自己注意正規化(SAR) の2つの特徴がある。
論文 参考訳(メタデータ) (2022-03-23T08:47:01Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - Fast Convergence of DETR with Spatially Modulated Co-Attention [83.19863907905666]
本研究では,空間変調型コアテンション(SMCA)機構である検出トランスフォーマフレームワークの改良のための簡易かつ効果的な手法を提案する。
提案するSMCAはデコーダの本来のコアテンション機構を置き換えることでDTRの収束速度を向上する。
拡張畳み込みベースのバックボーンを持つDETRと比較して, 完全知識のSMCAの方が優れた性能が得られる。
論文 参考訳(メタデータ) (2021-08-05T06:53:19Z) - Fast Convergence of DETR with Spatially Modulated Co-Attention [83.19863907905666]
本論文では,Spatially Modulated Co-Attention (SMCA) 機構を用いた検出トランスフォーマーフレームワークの簡便かつ効果的な改善手法を提案する。
提案するSMCAはデコーダの本来のコアテンション機構を置き換えることでDTRの収束速度を向上する。
拡張畳み込みベースのバックボーンを持つDETRと比較して, 完全知識のSMCAの方が優れた性能が得られる。
論文 参考訳(メタデータ) (2021-01-19T03:52:44Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Dynamically Mitigating Data Discrepancy with Balanced Focal Loss for
Replay Attack Detection [10.851348154870852]
我々は、アンチ・スプーフィングにおいては、モデリングプロセスにおいて容易に分類されたサンプルよりも識別不能なサンプルに注意が必要であると論じている。
本研究は, サンプル自体の特性に基づいて, 損失を動的にスケールする訓練目的として, バランスの取れた焦点損失関数を活用することを提案する。
相補的な特徴により、3種類の機能しか持たない融合系は他のシステムよりも22.5%、min-tDCFが7%、EERが7%向上する。
論文 参考訳(メタデータ) (2020-06-25T17:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。