論文の概要: A new method for optical steel rope non-destructive damage detection
- arxiv url: http://arxiv.org/abs/2402.03843v3
- Date: Tue, 20 Feb 2024 10:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 19:42:17.491988
- Title: A new method for optical steel rope non-destructive damage detection
- Title(参考訳): 光学鋼ロープの非破壊損傷検出法
- Authors: Yunqing Bao, Bin Hu
- Abstract要約: 本稿では,高高度(空中ロープウェイ)における鋼ロープの非破壊損傷検出のための新しいアルゴリズムを提案する。
RGBD-UNetという名前のセグメンテーションモデルは、複雑な背景から鋼のロープを正確に抽出するように設計されている。
VovNetV3.5と呼ばれる検出モデルは、通常の鋼ロープと異常鋼ロープを区別するために開発された。
- 参考スコア(独自算出の注目度): 3.774521897146206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel algorithm for non-destructive damage detection
for steel ropes in high-altitude environments (aerial ropeway). The algorithm
comprises two key components: First, a segmentation model named RGBD-UNet is
designed to accurately extract steel ropes from complex backgrounds. This model
is equipped with the capability to process and combine color and depth
information through the proposed CMA module. Second, a detection model named
VovNetV3.5 is developed to differentiate between normal and abnormal steel
ropes. It integrates the VovNet architecture with a DBB module to enhance
performance. Besides, a novel background augmentation method is proposed to
enhance the generalization ability of the segmentation model. Datasets
containing images of steel ropes in different scenarios are created for the
training and testing of both the segmentation and detection models. Experiments
demonstrate a significant improvement over baseline models. On the proposed
dataset, the highest accuracy achieved by the detection model reached 0.975,
and the maximum F-measure achieved by the segmentation model reached 0.948.
- Abstract(参考訳): 本稿では,高高度環境(エアラルロープウェイ)における鋼ロープの非破壊損傷検出アルゴリズムを提案する。
まず、rgbd-unetと呼ばれるセグメンテーションモデルは、複雑な背景から正確に鋼ロープを抽出するように設計されている。
このモデルは、提案したCMAモジュールを通して色と深度情報を処理・結合する機能を備えている。
第2に、VovNetV3.5と呼ばれる検出モデルは、通常の鋼ロープと異常鋼ロープを区別するために開発された。
VovNetアーキテクチャとDBBモジュールを統合してパフォーマンスを向上させる。
また,セグメンテーションモデルの一般化能力を高めるために,新たなバックグラウンド拡張手法を提案する。
セグメンテーションと検出モデルのトレーニングとテストのために、異なるシナリオで鋼ロープの画像を含むデータセットが作成されます。
実験はベースラインモデルよりも大幅に改善された。
提案するデータセットでは,検出モデルによる最大精度は0.975に達し,セグメンテーションモデルによる最大f測定値は0.948に達した。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Infrared Small Target Detection Using Double-Weighted Multi-Granularity
Patch Tensor Model With Tensor-Train Decomposition [6.517559383143804]
本稿では,DWMGIPT(Double-weighted multi-granularity infrared patch tensor)モデルを提案する。
提案アルゴリズムはノイズや異なるシーンに対して堅牢である。
論文 参考訳(メタデータ) (2023-10-09T02:17:31Z) - DiffusionEngine: Diffusion Model is Scalable Data Engine for Object
Detection [41.436817746749384]
Diffusion Modelはオブジェクト検出のためのスケーラブルなデータエンジンである。
DiffusionEngine(DE)は、高品質な検出指向のトレーニングペアを単一のステージで提供する。
論文 参考訳(メタデータ) (2023-09-07T17:55:01Z) - Dual flow fusion model for concrete surface crack segmentation [0.0]
亀裂やその他の損傷は交通インフラの安全運用に重大な脅威をもたらす。
ディープラーニングモデルは、実用的な視覚的セグメンテーションタスクに広く応用されている。
本稿では,二重ストリームの融合に基づくひび割れ分割モデルを提案する。
論文 参考訳(メタデータ) (2023-05-09T02:35:58Z) - DEYO: DETR with YOLO for Step-by-Step Object Detection [0.0]
本稿では, YOLO (DEYO) を用いた新しい2段階物体検出モデルDETRを提案する。
第1ステージは高品質なクエリと第2ステージへのアンカー供給を提供し、オリジナルのDETRモデルと比較して第2ステージの性能と効率を改善した。
実験の結果、DEYOは12時間で50.6 AP、52.1 AP、36時間でそれぞれ到達した。
論文 参考訳(メタデータ) (2022-11-12T06:36:17Z) - Identification of Binary Neutron Star Mergers in Gravitational-Wave Data
Using YOLO One-Shot Object Detection [0.0]
本稿では, 汎用の畳み込み型単発物体検出モデルであるYOLOv5モデルを, 電流発生干渉計検出器の重力波データから二元中性子星(BNS)の合体現象を検出するタスクに適用した。
単クラス検証データセットの平均精度(textmAP_[0.50]$)は0.945、テストデータセットは0.978である。
論文 参考訳(メタデータ) (2022-07-01T10:11:44Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。