論文の概要: Thermal and RGB Images Work Better Together in Wind Turbine Damage Detection
- arxiv url: http://arxiv.org/abs/2412.04114v1
- Date: Thu, 05 Dec 2024 12:32:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:41:48.748661
- Title: Thermal and RGB Images Work Better Together in Wind Turbine Damage Detection
- Title(参考訳): 風力発電事故検出における熱・RGB画像の連携
- Authors: Serhii Svystun, Oleksandr Melnychenko, Pavlo Radiuk, Oleg Savenko, Anatoliy Sachenko, Andrii Lysyi,
- Abstract要約: 風力タービンブレード(WTB)の検査は、その構造的整合性と運用効率の確保に不可欠である。
従来の検査手法は危険で非効率であり、無人航空機(UAV)の使用が困難な地域へのアクセスを促す。
空間座標変換による熱画像とRGB画像を組み合わせたマルチスペクトル画像合成法を提案する。
- 参考スコア(独自算出の注目度): 13.786915116688965
- License:
- Abstract: The inspection of wind turbine blades (WTBs) is crucial for ensuring their structural integrity and operational efficiency. Traditional inspection methods can be dangerous and inefficient, prompting the use of unmanned aerial vehicles (UAVs) that access hard-to-reach areas and capture high-resolution imagery. In this study, we address the challenge of enhancing defect detection on WTBs by integrating thermal and RGB images obtained from UAVs. We propose a multispectral image composition method that combines thermal and RGB imagery through spatial coordinate transformation, key point detection, binary descriptor creation, and weighted image overlay. Using a benchmark dataset of WTB images annotated for defects, we evaluated several state-of-the-art object detection models. Our results show that composite images significantly improve defect detection efficiency. Specifically, the YOLOv8 model's accuracy increased from 91% to 95%, precision from 89% to 94%, recall from 85% to 92%, and F1-score from 87% to 93%. The number of false positives decreased from 6 to 3, and missed defects reduced from 5 to 2. These findings demonstrate that integrating thermal and RGB imagery enhances defect detection on WTBs, contributing to improved maintenance and reliability.
- Abstract(参考訳): 風力タービンブレード(WTB)の検査は、その構造的整合性と運用効率の確保に不可欠である。
従来の検査手法は危険で非効率であり、無人航空機(UAV)を使って難解な地域にアクセスし、高解像度の画像を撮影する。
本研究では,UAVから得られた熱画像とRGB画像を統合することで,WTBの欠陥検出を向上することの課題に対処する。
本稿では,空間座標変換,キーポイント検出,バイナリ記述子生成,重み付け画像オーバーレイによる熱画像とRGB画像を組み合わせたマルチスペクトル画像合成手法を提案する。
欠陥に注釈を付けたWTB画像のベンチマークデータセットを用いて、いくつかの最先端オブジェクト検出モデルを評価した。
その結果, 複合画像は欠陥検出効率を著しく向上させることがわかった。
具体的には、YOLOv8モデルの精度は91%から95%、精度は89%から94%、リコールは85%から92%、F1スコアは87%から93%に向上した。
偽陽性率は6から3に減少し,欠陥は5から2に減少した。
これらの結果から, 熱画像とRGB画像の統合によりWTBの欠陥検出が促進され, メンテナンスと信頼性の向上に寄与することが示唆された。
関連論文リスト
- The Solution for the GAIIC2024 RGB-TIR object detection Challenge [5.625794757504552]
RGB-TIRオブジェクト検出は、RGBとTIRの両方の画像を、検出中に補完情報として利用する。
提案手法はAとBのベンチマークでそれぞれ0.516と0.543のmAPスコアを得た。
論文 参考訳(メタデータ) (2024-07-04T12:08:36Z) - Invisible Gas Detection: An RGB-Thermal Cross Attention Network and A New Benchmark [24.108560366345248]
本稿では,RGBを用いた2ストリームネットワークアーキテクチャを用いて,RGB画像のテクスチャ情報と熱画像のガス領域情報を統合するRGB-Thermal Cross Attention Network (RT-CAN)を提案する。
Gas-DBは、約1.3Kの注釈付きRGB熱水画像と8種類のコレクションシーンを含む、大規模なオープンソースのガス検知データベースである。
論文 参考訳(メタデータ) (2024-03-26T13:58:47Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - IH-ViT: Vision Transformer-based Integrated Circuit Appear-ance Defect
Detection [5.4641726517633025]
IC外見欠陥検出アルゴリズム-rithm IH-ViTを提案する。
提案モデルでは,CNN と ViT の強みを生かして,ローカル・グローバル両面から画像特徴を取得する。
提案したハイブリッドIH-ViTモデルの精度は72.51%であり,ResNet50モデルとViTモデルだけでは2.8%,6.06%高かった。
論文 参考訳(メタデータ) (2023-02-09T09:27:40Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Anomaly Detection in IR Images of PV Modules using Supervised
Contrastive Learning [4.409996772486956]
我々は、赤外線画像の異常を検出するために、教師付きコントラスト損失を伴うResNet-34畳み込みニューラルネットワークを訓練する。
本手法は,未知の種類の異常を迅速かつ確実に検出し,実践に適した手法である。
我々の研究は、教師なしドメイン適応を用いたPVモジュール故障検出をより現実的な視点でコミュニティに提供します。
論文 参考訳(メタデータ) (2021-12-06T10:42:28Z) - A Multi-Stage model based on YOLOv3 for defect detection in PV panels
based on IR and Visible Imaging by Unmanned Aerial Vehicle [65.99880594435643]
本研究では,無人航空機が捉えた空中画像のパネル欠陥を検出するための新しいモデルを提案する。
このモデルは、パネルと欠陥の検出を組み合わせることで、精度を向上する。
提案モデルはイタリア南部の2つの大きなPVプラントで検証されている。
論文 参考訳(メタデータ) (2021-11-23T08:04:32Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Recurrent Exposure Generation for Low-Light Face Detection [113.25331155337759]
本稿では,Recurrent Exposure Generation (REG) モジュールと Multi-Exposure Detection (MED) モジュールを提案する。
REGは、様々な露光設定に対応する段階的かつ効率的な中間画像を生成する。
このような擬似露光はMEDによって融合され、異なる照明条件で顔を検出する。
論文 参考訳(メタデータ) (2020-07-21T17:30:51Z) - Combining Visible and Infrared Spectrum Imagery using Machine Learning
for Small Unmanned Aerial System Detection [1.392250707100996]
本研究は,SUASの視覚的検出に機械学習を用いたLWIRと可視光センサの利点を組み合わせることを提案する。
検出率は71.2+-8.3%で、LWIRに比べて69%、可視スペクトル単独では30.4%向上した。
論文 参考訳(メタデータ) (2020-03-27T21:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。