論文の概要: On-Device Crack Segmentation for Edge Structural Health Monitoring
- arxiv url: http://arxiv.org/abs/2505.07915v1
- Date: Mon, 12 May 2025 14:17:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.28267
- Title: On-Device Crack Segmentation for Edge Structural Health Monitoring
- Title(参考訳): エッジ構造モニタリングのためのオンデバイスクラックセグメンテーション
- Authors: Yuxuan Zhang, Ye Xu, Luciano Sebastian Martinez-Rau, Quynh Nguyen Phuong Vu, Bengt Oelmann, Sebastian Bader,
- Abstract要約: き裂のセグメンテーションは、き裂の大きさと位置の正確な識別を可能にすることで、構造的健康モニタリング(SHM)において重要な役割を果たす。
リソース制限されたマイクロコントローラ上でのクラックセグメンテーションのためのディープラーニングモデルのデプロイは、メモリ、計算能力、エネルギー資源の制限による重大な課題を示す。
本稿では,TinyMLアプリケーションに適した軽量なU-Netアーキテクチャについて検討し,3つの最適化戦略に注目した。
- 参考スコア(独自算出の注目度): 5.895798768059775
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Crack segmentation can play a critical role in Structural Health Monitoring (SHM) by enabling accurate identification of crack size and location, which allows to monitor structural damages over time. However, deploying deep learning models for crack segmentation on resource-constrained microcontrollers presents significant challenges due to limited memory, computational power, and energy resources. To address these challenges, this study explores lightweight U-Net architectures tailored for TinyML applications, focusing on three optimization strategies: filter number reduction, network depth reduction, and the use of Depthwise Separable Convolutions (DWConv2D). Our results demonstrate that reducing convolution kernels and network depth significantly reduces RAM and Flash requirement, and inference times, albeit with some accuracy trade-offs. Specifically, by reducing the filer number to 25%, the network depth to four blocks, and utilizing depthwise convolutions, a good compromise between segmentation performance and resource consumption is achieved. This makes the network particularly suitable for low-power TinyML applications. This study not only advances TinyML-based crack segmentation but also provides the possibility for energy-autonomous edge SHM systems.
- Abstract(参考訳): ひび割れのセグメンテーションは、ひび割れの大きさと位置を正確に識別することで、構造的健康モニタリング(SHM)において重要な役割を果たす。
しかし、資源制約されたマイクロコントローラ上でのクラックセグメンテーションのためのディープラーニングモデルをデプロイすると、メモリ、計算能力、エネルギー資源が制限されるため、大きな課題が生じる。
これらの課題に対処するために、TinyMLアプリケーションに適した軽量なU-Netアーキテクチャについて検討し、フィルタ数削減、ネットワーク深さ削減、DWConv2D(Depthwise Separable Convolutions)の使用という3つの最適化戦略に焦点を当てた。
以上の結果から,畳み込みカーネルとネットワーク深さの削減はRAMとFlashの要求を著しく低減し,推論時間もある程度の精度でトレードオフすることを示した。
具体的には、ファイバ数を25%に減らし、ネットワーク深さを4ブロックに減らし、奥行きの畳み込みを利用して、セグメンテーション性能とリソース消費の良好な妥協を実現する。
これにより、ネットワークは特に低消費電力のTinyMLアプリケーションに適している。
この研究はTinyMLベースの亀裂セグメンテーションを推し進めるだけでなく、エネルギー自動エッジSHMシステムの可能性も提供する。
関連論文リスト
- USEFUSE: Uniform Stride for Enhanced Performance in Fused Layer Architecture of Deep Neural Networks [0.6435156676256051]
本研究では,低レイテンシ左から右へのビットシリアル演算を用いた畳み込みのためのSum-of-Products (SOP)ユニットを提案する。
有効メカニズムは、ReLU層の後、非効率な畳み込みを検出し、スキップし、消費電力を最小化する。
ひとつはミッションクリティカルなアプリケーションの応答時間を最小限にすること、もうひとつはリソースに制約のあるデバイスに同じレイテンシでフォーカスすることである。
論文 参考訳(メタデータ) (2024-12-18T11:04:58Z) - Skeleton Recall Loss for Connectivity Conserving and Resource Efficient Segmentation of Thin Tubular Structures [2.0710692923459804]
容器、神経、道路、コンクリートクラックなどの細い管状構造を正確に分断することは、コンピュータビジョンにおいて重要な課題である。
DiceやCross-Entropyのような標準的なディープラーニングベースのセグメンテーション損失関数は、しばしば構造的な接続性やトポロジーを犠牲にしてオーバーラップに焦点を当てる。
我々は,GPUベースの計算を低コストなCPU操作で回避し,これらの課題を効果的に解決する新しいSkeleton Recall Lossを提案する。
論文 参考訳(メタデータ) (2024-04-03T18:42:19Z) - Efficient Neural Networks for Tiny Machine Learning: A Comprehensive
Review [1.049712834719005]
このレビューでは、効率的なニューラルネットワークの進歩と超低消費電力マイクロコントローラへのディープラーニングモデルの展開を詳細に分析する。
レビューの中核は、TinyMLの効率的なニューラルネットワークに焦点を当てている。
モデル圧縮、量子化、低ランク因数分解などのテクニックをカバーし、最小限のリソース利用のためにニューラルネットワークアーキテクチャを最適化する。
次に,超低消費電力MCU上でのディープラーニングモデルの展開について検討し,限られた計算能力やメモリ資源といった課題に対処する。
論文 参考訳(メタデータ) (2023-11-20T16:20:13Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - AttendSeg: A Tiny Attention Condenser Neural Network for Semantic
Segmentation on the Edge [71.80459780697956]
デバイス上のセマンティックセグメンテーションに適した,低精度でコンパクトなディープニューラルネットワークである textbfAttendSeg を紹介する。
attendsegは、空間-チャネル選択的注意を改善するために軽量注意凝縮器からなるセルフアテンションネットワークアーキテクチャを持っている。
論文 参考訳(メタデータ) (2021-04-29T19:19:04Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。