論文の概要: Unsupervised crack detection on complex stone masonry surfaces
- arxiv url: http://arxiv.org/abs/2303.17989v1
- Date: Fri, 31 Mar 2023 12:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:13:39.349217
- Title: Unsupervised crack detection on complex stone masonry surfaces
- Title(参考訳): 複雑な石材表面の非教師ありき裂検出
- Authors: Panagiotis Agrafiotis, Anastastios Doulamis, Andreas Georgopoulos
- Abstract要約: 本稿では,石造石垣のき裂検出手法について述べる。
提案手法では, RGB (Red Green Blue) 画像パッチの非教師付き異常検出問題として, き裂検出にアプローチする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computer vision for detecting building pathologies has interested researchers
for quite some time. Vision-based crack detection is a non-destructive
assessment technique, which can be useful especially for Cultural Heritage (CH)
where strict regulations apply and, even simple, interventions are not
permitted. Recently, shallow and deep machine learning architectures applied on
various types of imagery are gaining ground. In this article a crack detection
methodology for stone masonry walls is presented. In the proposed approach,
crack detection is approached as an unsupervised anomaly detection problem on
RGB (Red Green Blue) image patches. Towards this direction, some of the most
popular state of the art CNN (Convolutional Neural Network) architectures are
deployed and modified to binary classify the images or image patches by
predicting a specific class for the tested imagery; 'Crack' or 'No crack', and
detect and localize those cracks on the RGB imagery with high accuracy. Testing
of the model was performed on various test sites and random images retrieved
from the internet and collected by the authors and results suggested the high
performance of specific networks compared to the rest, considering also the
small numbers of epochs required for training. Those results met the accuracy
delivered by more complex and computationally heavy approaches, requiring a
large amount of data for training. Source code is available on GitHub
https://github.com/pagraf/Crack-detection while datasets are available on
Zenodo https://doi.org/10.5281/zenodo.6516913 .
- Abstract(参考訳): 建築病理を検出するコンピュータビジョンは、かなり前から研究者に関心を寄せてきた。
視覚に基づくき裂検出は非破壊的な評価手法であり、厳格な規制が適用される文化遺産(CH)では特に有用であり、単純な介入も許されない。
近年,様々な画像に適用される浅層および深層機械学習アーキテクチャが注目されている。
本稿では,石垣壁の亀裂検出法について述べる。
提案手法では, RGB (Red Green Blue) 画像パッチの非教師付き異常検出問題として, き裂検出にアプローチする。
この方向に向かって、art cnn(convolutional neural network)アーキテクチャの最も一般的な状態のいくつかは、テストされた画像の特定のクラスを予測して画像またはイメージパッチをバイナリに分類するためにデプロイされ、修正され、rgbイメージのクラックを高精度に検出およびローカライズする。
実験では,インターネットから検索したランダム画像と各種サイト上で実験を行い,著者らが収集した結果から,学習に必要なエポック数が少なかったことを考えると,他のネットワークに比べて高い性能を示した。
これらの結果は、より複雑で計算的に重いアプローチによって提供される精度を満たし、トレーニングに大量のデータを必要とする。
ソースコードはGitHub https://github.com/pagraf/Crack-detectionで、データセットはZenodo https://doi.org/10.5281/zenodo.6516913で入手できる。
関連論文リスト
- Deep Learning-Based Fatigue Cracks Detection in Bridge Girders using Feature Pyramid Networks [8.59780173800845]
本研究では,橋梁の鋼箱桁のひび割れ情報を含む高分解能画像からの自動き裂分割手法を提案する。
亀裂のマルチスケールの特徴を考慮し, 亀裂検出のための特徴ピラミッドネットワーク(FPN)の畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-28T16:16:15Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Segmentation tool for images of cracks [0.16492989697868887]
本稿では,画像上のひび割れを手動で分割しやすくする半自動き裂分割ツールを提案する。
また、ひび割れの形状を測定するためにも用いられる。
提案手法は完全自動手法より優れており,手動データアノテーションの適切な代替となる可能性を示している。
論文 参考訳(メタデータ) (2024-03-28T15:23:52Z) - UP-CrackNet: Unsupervised Pixel-Wise Road Crack Detection via Adversarial Image Restoration [23.71017765426465]
本稿では,UP-CrackNet と呼ばれる非教師付き画素単位の道路亀裂検出ネットワークを提案する。
提案手法はまずマルチスケールの正方形マスクを生成し,特定領域を除去して無害道路画像をランダムに選別する。
生成的敵ネットワークは、周辺未破壊領域から学習した意味的文脈を活用することにより、腐敗した領域を復元するように訓練される。
論文 参考訳(メタデータ) (2024-01-28T12:51:01Z) - Robotic surface exploration with vision and tactile sensing for cracks
detection and characterisation [7.627217550282436]
本稿では,光ファイバーを用いた視覚・触覚解析に基づくクラックの局所化と検出のための新しいアルゴリズムを提案する。
ファイバー光学に基づく指型センサを用いて、データ取得を行い、分析と実験のためのデータ収集を行う。
論文 参考訳(メタデータ) (2023-07-13T14:50:38Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Hierarchical Convolutional Neural Network with Feature Preservation and
Autotuned Thresholding for Crack Detection [5.735035463793008]
ドローンの画像はインフラ表面の欠陥の自動検査にますます使われている。
本稿では,階層型畳み込みニューラルネットワークを用いた深層学習手法を提案する。
提案手法は, 道路, 橋, 舗装の表面ひび割れの同定に応用されている。
論文 参考訳(メタデータ) (2021-04-21T13:07:58Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。