論文の概要: Automatic Classification and Segmentation of Tunnel Cracks Based on Deep Learning and Visual Explanations
- arxiv url: http://arxiv.org/abs/2507.14010v1
- Date: Fri, 18 Jul 2025 15:21:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.335763
- Title: Automatic Classification and Segmentation of Tunnel Cracks Based on Deep Learning and Visual Explanations
- Title(参考訳): 深層学習と視覚的説明に基づくトンネルひび割れの自動分類とセグメンテーション
- Authors: Yong Feng, Xiaolei Zhang, Shijin Feng, Yong Zhao, Yihan Chen,
- Abstract要約: 本研究の目的は, トンネル亀裂を高精度かつ効率的に分類・分断することである。
最初にDenseNet-169を用いてトンネル画像の自動分類モデルを開発した。
2番目のステップで提案されたクラックセグメンテーションモデルはDeepLabV3+に基づいている。
- 参考スコア(独自算出の注目度): 9.2814977996391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tunnel lining crack is a crucial indicator of tunnels' safety status. Aiming to classify and segment tunnel cracks with enhanced accuracy and efficiency, this study proposes a two-step deep learning-based method. An automatic tunnel image classification model is developed using the DenseNet-169 in the first step. The proposed crack segmentation model in the second step is based on the DeepLabV3+, whose internal logic is evaluated via a score-weighted visual explanation technique. Proposed method combines tunnel image classification and segmentation together, so that the selected images containing cracks from the first step are segmented in the second step to improve the detection accuracy and efficiency. The superior performances of the two-step method are validated by experiments. The results show that the accuracy and frames per second (FPS) of the tunnel crack classification model are 92.23% and 39.80, respectively, which are higher than other convolutional neural networks (CNN) based and Transformer based models. Also, the intersection over union (IoU) and F1 score of the tunnel crack segmentation model are 57.01% and 67.44%, respectively, outperforming other state-of-the-art models. Moreover, the provided visual explanations in this study are conducive to understanding the "black box" of deep learning-based models. The developed two-stage deep learning-based method integrating visual explanations provides a basis for fast and accurate quantitative assessment of tunnel health status.
- Abstract(参考訳): トンネルライニングクラックは、トンネルの安全状態を示す重要な指標である。
そこで本研究では,2段階の深層学習手法を提案する。
最初にDenseNet-169を用いてトンネル画像の自動分類モデルを開発した。
2番目のステップで提案したクラック分割モデルは、スコア重み付き視覚的説明手法を用いて内部ロジックを評価するDeepLabV3+に基づいている。
提案手法はトンネル画像の分類とセグメンテーションを組み合わせ、第1ステップからの亀裂を含む選択された画像が第2ステップにセグメンテーションされ、検出精度と効率が向上する。
2段階法の優れた性能を実験により検証した。
その結果、トンネル割れ分類モデルの精度とフレームは92.23%と39.80であり、他の畳み込みニューラルネットワーク(CNN)ベースモデルとトランスフォーマーベースモデルよりも高いことがわかった。
また、トンネルクラックセグメンテーションモデルの結合(IoU)とF1スコアはそれぞれ57.01%、67.44%であり、他の最先端モデルよりも優れている。
さらに,本研究で提示された視覚的説明は,深層学習モデルにおける「ブラックボックス」の理解に寄与する。
視覚的説明を統合する2段階の深層学習法は,トンネルの健康状態の迅速かつ正確な定量的評価の基礎となる。
関連論文リスト
- Deep Learning-Based Fatigue Cracks Detection in Bridge Girders using Feature Pyramid Networks [8.59780173800845]
本研究では,橋梁の鋼箱桁のひび割れ情報を含む高分解能画像からの自動き裂分割手法を提案する。
亀裂のマルチスケールの特徴を考慮し, 亀裂検出のための特徴ピラミッドネットワーク(FPN)の畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-28T16:16:15Z) - High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - DiffVein: A Unified Diffusion Network for Finger Vein Segmentation and
Authentication [50.017055360261665]
DiffVeinは、静脈分割と認証タスクを同時に処理する統合拡散モデルベースのフレームワークである。
これら2つのブランチ間の機能相互作用を改善するために,2つの特別なモジュールを導入する。
このようにして、我々のフレームワークは拡散とセグメンテーションの埋め込みの間の動的相互作用を可能にする。
論文 参考訳(メタデータ) (2024-02-03T06:49:42Z) - Dual flow fusion model for concrete surface crack segmentation [0.0]
亀裂やその他の損傷は交通インフラの安全運用に重大な脅威をもたらす。
ディープラーニングモデルは、実用的な視覚的セグメンテーションタスクに広く応用されている。
本稿では,二重ストリームの融合に基づくひび割れ分割モデルを提案する。
論文 参考訳(メタデータ) (2023-05-09T02:35:58Z) - SegPrompt: Using Segmentation Map as a Better Prompt to Finetune Deep
Models for Kidney Stone Classification [62.403510793388705]
深層学習は、内視鏡画像を用いた腎臓結石分類のための奨励的な結果を生み出している。
注釈付きトレーニングデータの不足は、トレーニングされたモデルの性能と一般化能力を改善する上で深刻な問題を引き起こす。
本稿では,セグメンテーションマップを2つの側面から活用することにより,データ不足問題を軽減するためにSegPromptを提案する。
論文 参考訳(メタデータ) (2023-03-15T01:30:48Z) - Evaluation and Comparison of Deep Learning Methods for Pavement Crack
Identification with Visual Images [0.0]
ディープラーニングアルゴリズムによる視覚画像による舗装き裂の識別は、検出対象の材料によって制限されないという利点がある。
パッチサンプル分類の面では、細調整されたTLモデルはEDモデルと精度で同等またはわずかに良い。
正確なクラック位置の面では、EDアルゴリズムとGANアルゴリズムの両方がピクセルレベルのセグメンテーションを達成でき、低演算パワープラットフォーム上でリアルタイムに検出されることが期待できる。
論文 参考訳(メタデータ) (2021-12-20T08:23:43Z) - Learning to Perform Downlink Channel Estimation in Massive MIMO Systems [72.76968022465469]
大規模マルチインプット・マルチアウトプット(MIMO)システムにおけるダウンリンク(DL)チャネル推定について検討する。
一般的なアプローチは、チャネル硬化によって動機付けられた推定値として平均値を使用することである。
本稿では2つの新しい推定法を提案する。
論文 参考訳(メタデータ) (2021-09-06T13:42:32Z) - Hierarchical Convolutional Neural Network with Feature Preservation and
Autotuned Thresholding for Crack Detection [5.735035463793008]
ドローンの画像はインフラ表面の欠陥の自動検査にますます使われている。
本稿では,階層型畳み込みニューラルネットワークを用いた深層学習手法を提案する。
提案手法は, 道路, 橋, 舗装の表面ひび割れの同定に応用されている。
論文 参考訳(メタデータ) (2021-04-21T13:07:58Z) - Advances in deep learning methods for pavement surface crack detection
and identification with visible light visual images [0.0]
工学構造における亀裂のNDTおよび健康モニタリング法と比較して、可視光画像に基づく表面亀裂検出または識別は非接触である。
本稿では,舗装き裂公開データセットを包括的に要約し,組込みプラットフォームにおける表面き裂検出および識別深層学習手法の性能と有効性について述べる。
論文 参考訳(メタデータ) (2020-12-29T11:10:12Z) - Weakly Supervised Deep Nuclei Segmentation Using Partial Points
Annotation in Histopathology Images [51.893494939675314]
本稿では,部分点アノテーションに基づく弱教師付きセグメンテーションフレームワークを提案する。
本手法は, 完全教師付き手法や最先端手法と比較して, 競争性能を向上できることを示す。
論文 参考訳(メタデータ) (2020-07-10T15:41:29Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。