論文の概要: HybridSolarNet: A Lightweight and Explainable EfficientNet-CBAM Architecture for Real-Time Solar Panel Fault Detection
- arxiv url: http://arxiv.org/abs/2601.02928v1
- Date: Tue, 06 Jan 2026 11:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.907258
- Title: HybridSolarNet: A Lightweight and Explainable EfficientNet-CBAM Architecture for Real-Time Solar Panel Fault Detection
- Title(参考訳): HybridSolarNet: リアルタイムソーラーパネル故障検出のための軽量かつ説明可能なNet-CBAMアーキテクチャ
- Authors: Md. Asif Hossain, G M Mota-Tahrin Tayef, Nabil Subhan,
- Abstract要約: HybridSolarNetがCBAM(Convolutional Block Attention Module)とEfficientNet-B0を統合した
与えられた競合データセットの5重層化クロスバリデーション実験の平均精度は92.37% +/- 0.41。
推論速度は54.9 FPSでGPUをサポートしており、リアルタイムUAV実装の候補として成功している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manual inspections for solar panel systems are a tedious, costly, and error-prone task, making it desirable for Unmanned Aerial Vehicle (UAV) based monitoring. Though deep learning models have excellent fault detection capabilities, almost all methods either are too large and heavy for edge computing devices or involve biased estimation of accuracy due to ineffective learning techniques. We propose a new solar panel fault detection model called HybridSolarNet. It integrates EfficientNet-B0 with Convolutional Block Attention Module (CBAM). We implemented it on the Kaggle Solar Panel Images competition dataset with a tight split-before-augmentation protocol. It avoids leakage in accuracy estimation. We introduced focal loss and cosine annealing. Ablation analysis validates that accuracy boosts due to added benefits from CBAM (+1.53%) and that there are benefits from recognition of classes with imbalanced samples via focal loss. Overall average accuracy on 5-fold stratified cross-validation experiments on the given competition dataset topped 92.37% +/- 0.41 and an F1-score of 0.9226 +/- 0.39 compared to baselines like VGG19, requiring merely 16.3 MB storage, i.e., 32 times less. Its inference speed measured at 54.9 FPS with GPU support makes it a successful candidate for real-time UAV implementation. Moreover, visualization obtained from Grad-CAM illustrates that HybridSolarNet focuses on actual locations instead of irrelevant ones.
- Abstract(参考訳): ソーラーパネルシステムの手動検査は退屈でコストがかかり、エラーが発生しやすい作業であり、無人航空機(UAV)による監視が望ましい。
ディープラーニングモデルには優れた障害検出機能があるが、ほとんどの手法はエッジコンピューティングデバイスには大きすぎて重すぎるか、非効率な学習技術による正確さの偏りが伴う。
我々はHybridSolarNetと呼ばれる新しいソーラーパネル故障検出モデルを提案する。
EfficientNet-B0とConvolutional Block Attention Module (CBAM)を統合している。
そこで我々は,Kaggle Solar Panel Imagesコンペティションデータセット上に,厳密な分割前拡張プロトコルを用いて実装した。
精度推定のリークを避ける。
焦点障害とコサインアニールを施行した。
アブレーション分析はCBAM(+1.53%)の利点により精度が向上し、焦点損失によって不均衡なサンプルを持つクラスが認識できることを検証している。
VGG19のようなベースラインに比べてF1スコアは0.9226+/-0.39であり、わずか16.3MBのストレージを必要とする。
推論速度は54.9 FPSでGPUをサポートしており、リアルタイムUAV実装の候補として成功している。
さらに、Grad-CAMから得られた視覚化は、HybridSolarNetが無関係なものではなく、実際の場所に焦点を当てていることを示している。
関連論文リスト
- A Comprehensive Evaluation of YOLO-based Deer Detection Performance on Edge Devices [6.486957474966142]
鹿の侵入による農業の経済的損失は、アメリカで毎年数億ドルに上っていると推定され、伝統的な緩和戦略の不適切さを浮き彫りにした。
このことは、リアルタイムの鹿検出と抑止能力を持つインテリジェントで自律的なソリューションに対する重要なニーズを浮き彫りにしている。
本研究では,シカ検出のための最先端深層学習モデルの総合的評価を行う。
論文 参考訳(メタデータ) (2025-09-24T17:01:50Z) - Vision-Based Object Detection for UAV Solar Panel Inspection Using an Enhanced Defects Dataset [0.0]
本研究では, YOLOv3, Faster R-CNN, RetinaNet, EfficientDet, Swin Transformerの5種類の最先端物体検出モデルの総合評価を行った。
COCO形式で注釈付けされ、ソーラーパネルの欠陥と汚染検知のために特別に設計されたカスタムデータセットが開発された。
その結果,検出精度と計算効率のトレードオフが示され,各モデルの相対的強度と限界が強調された。
論文 参考訳(メタデータ) (2025-09-02T14:41:31Z) - Data-Free Dynamic Compression of CNNs for Tractable Efficiency [46.498278084317704]
構造化プルーニング手法は, 精度が大幅に低下することなく浮動小数点演算を低下させる可能性を示唆している。
HASTE(Hashing for Tractable Efficiency)は,データフリーでプラグイン・アンド・プレイのコンボリューションモジュールで,トレーニングや微調整なしにネットワークのテスト時間推論コストを瞬時に低減する。
CIFAR-10とImageNetでは46.72%のFLOPを1.25%の精度で削減した。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Efficient Offline Policy Optimization with a Learned Model [83.64779942889916]
MuZero Unpluggedはログデータからオフラインポリシー学習に有望なアプローチを提供する。
MCTS(Monte-Carlo Tree Search)を学習モデルで実行し、Reanalyzeアルゴリズムを利用してオフラインデータから純粋に学習する。
本稿では,オフライン設定下では MuZero Unplugged がうまく動作しないという仮説について検討する。
論文 参考訳(メタデータ) (2022-10-12T07:41:04Z) - Automatic Detection of Interplanetary Coronal Mass Ejections in Solar
Wind In Situ Data [0.0]
本稿では,ICMEの自動検出のためのパイプラインを提案する。
パイプラインは,平均絶対誤差(MAE)が約2時間56分,終了時間が3時間20分であるICMEの開始点を見つける。
論文 参考訳(メタデータ) (2022-05-07T07:25:05Z) - Keypoints-Based Deep Feature Fusion for Cooperative Vehicle Detection of
Autonomous Driving [2.6543018470131283]
本稿では,FPV-RCNNと呼ばれる,効率的なキーポイントに基づく深い特徴融合フレームワークを提案する。
鳥眼視(BEV)キーポイントの核融合と比較すると、FPV-RCNNは検出精度を約14%向上させる。
また,提案手法はCPMのサイズを0.3KB以下に削減し,従来のBEV機能マップの約50倍の小型化を実現した。
論文 参考訳(メタデータ) (2021-09-23T19:41:02Z) - VSAC: Efficient and Accurate Estimator for H and F [68.65610177368617]
VSACはRANSAC型頑健な推定器であり、多くの新奇性がある。
従来のすべてのプロセッサよりも大幅に高速で、CPU上では平均1-2msで動作する。
現在最も正確な2次元幾何学推定器である MAGSAC++ と同等の精度で2桁高速である。
論文 参考訳(メタデータ) (2021-06-18T17:04:57Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。