論文の概要: Vision-Guided Active Tactile Perception for Crack Detection and
Reconstruction
- arxiv url: http://arxiv.org/abs/2105.06325v1
- Date: Thu, 13 May 2021 14:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 18:20:33.324761
- Title: Vision-Guided Active Tactile Perception for Crack Detection and
Reconstruction
- Title(参考訳): 視覚誘導型アクティブ触覚によるき裂検出と再建
- Authors: Jiaqi Jiang, Guanqun Cao, Daniel Fernandes Gomes and Shan Luo
- Abstract要約: 視覚誘導能動触覚を用いたコンクリート構造物の亀裂の検出・再構築手法を提案する。
提案手法は, 目視によるき裂検出と比較して, き裂検出と復元の有効性と堅牢性を大幅に向上させる。
- 参考スコア(独自算出の注目度): 10.289118975238429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Crack detection is of great significance for monitoring the integrity and
well-being of the infrastructure such as bridges and underground pipelines,
which are harsh environments for people to access. In recent years, computer
vision techniques have been applied in detecting cracks in concrete structures.
However, they suffer from variances in light conditions and shadows, lacking
robustness and resulting in many false positives. To address the uncertainty in
vision, human inspectors actively touch the surface of the structures, guided
by vision, which has not been explored in autonomous crack detection. In this
paper, we propose a novel approach to detect and reconstruct cracks in concrete
structures using vision-guided active tactile perception. Given an RGB-D image
of a structure, the rough profile of the crack in the structure surface will
first be segmented with a fine-tuned Deep Convolutional Neural Networks, and a
set of contact points are generated to guide the collection of tactile images
by a camera-based optical tactile sensor. When contacts are made, a pixel-wise
mask of the crack can be obtained from the tactile images and therefore the
profile of the crack can be refined by aligning the RGB-D image and the tactile
images. Extensive experiment results have shown that the proposed method
improves the effectiveness and robustness of crack detection and reconstruction
significantly, compared to crack detection with vision only, and has the
potential to enable robots to help humans with the inspection and repair of the
concrete infrastructure.
- Abstract(参考訳): ひび割れ検出は、人々がアクセスするための厳しい環境である橋や地下パイプラインなどのインフラの完全性と健全性を監視する上で非常に重要である。
近年,コンクリート構造物の亀裂検出にコンピュータビジョン技術が応用されている。
しかし、光条件や影のばらつきに悩まされ、頑丈さに欠け、多くの偽陽性が生じる。
視覚の不確実性に対処するため、人間の検査官は、自律的なき裂検出では研究されていない視覚によって導かれる構造の表面に積極的に触れる。
本稿では,視覚誘導型アクティブ触覚認識を用いたコンクリート構造物のひび割れ検出と復元のための新しい手法を提案する。
構造物のrgb-d画像が与えられると、まず構造表面のき裂の粗さプロファイルを微調整された深い畳み込みニューラルネットワークでセグメント化し、カメラベースの光学触覚センサにより触覚画像の収集をガイドする一連の接触点を生成する。
接触すると、触覚画像からクラックの画素回りマスクを得ることができ、RGB−D画像と触覚画像とを整列させてクラックのプロファイルを洗練することができる。
提案手法は, 目視のみによるき裂検出と比較して, き裂検出・復元の有効性と堅牢性を大幅に向上し, コンクリート構造物の検査・修理をロボットが支援できる可能性が示唆された。
関連論文リスト
- Deep Learning-Based Fatigue Cracks Detection in Bridge Girders using Feature Pyramid Networks [8.59780173800845]
本研究では,橋梁の鋼箱桁のひび割れ情報を含む高分解能画像からの自動き裂分割手法を提案する。
亀裂のマルチスケールの特徴を考慮し, 亀裂検出のための特徴ピラミッドネットワーク(FPN)の畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-28T16:16:15Z) - Concrete Surface Crack Detection with Convolutional-based Deep Learning
Models [0.0]
き裂検出は、建物の構造的健康モニタリングと検査に重要である。
畳み込みニューラルネットワーク(CNN)は、ひび割れ検出のための有望なフレームワークとして登場した。
我々は、事前訓練されたディープラーニングアーキテクチャに微調整技術を採用する。
論文 参考訳(メタデータ) (2024-01-13T17:31:12Z) - Unsupervised Skin Lesion Segmentation via Structural Entropy
Minimization on Multi-Scale Superpixel Graphs [59.19218582436495]
本研究では,構造エントロピーと孤立林外層検出に基づく非教師付き皮膚病変sEgmentationフレームワーク,すなわちSLEDを提案する。
皮膚病変は、皮膚内視鏡像から構築した超画素グラフの構造エントロピーを最小化することにより区分される。
健康な皮膚の特徴の整合性を特徴とし, マルチスケールのセグメンテーション機構を考案し, マルチスケールのスーパーピクセル特徴を活用して, セグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2023-09-05T02:15:51Z) - Reconstruction Distortion of Learned Image Compression with
Imperceptible Perturbations [69.25683256447044]
本稿では,学習画像圧縮(lic)の再構成品質を効果的に劣化させる攻撃手法を提案する。
我々は,Frobeniusノルムに基づく損失関数を導入して,元の画像と再構成された逆例との差を最大化することによって,逆例を生成する。
様々なlicモデルを用いてKodakデータセット上で実験を行った結果,有効性が確認された。
論文 参考訳(メタデータ) (2023-06-01T20:21:05Z) - Application of Segment Anything Model for Civil Infrastructure Defect Assessment [0.15077212427453812]
本研究では,コンクリート構造物のひび割れ検出のための2つの深層学習モデルSAMとU-Netの性能評価を行う。
その結果, それぞれのモデルには, 異なる種類のひび割れを検知する独自の強度と限界があることが示唆された。
論文 参考訳(メタデータ) (2023-04-25T06:17:44Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - PointCrack3D: Crack Detection in Unstructured Environments using a
3D-Point-Cloud-Based Deep Neural Network [20.330700719146215]
本稿では,非構造面に対する新しい3Dポイント・クラウド・ベースのき裂検出アルゴリズムであるPointCrack3Dを提案する。
この手法は、新しい大きな天然岩のデータセットで実験的に検証された。
その結果, ひび割れ検出率は全体の97%, ひび割れの100%であり, 最大幅は3cm以上であった。
論文 参考訳(メタデータ) (2021-11-23T02:33:18Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - Detection Of Concrete Cracks using Dual-channel Deep Convolutional
Network [0.0]
本研究では, 深部畳み込みニューラルネットワーク(CNN)を用いたひび割れ検出手法を提案する。
コンクリートクラックを用いた3200枚のラベル付き画像データベースが作成されており, コントラスト, 照明条件, 方向, ひび割れの重症度は極めて多様であった。
我々は,両チャネル深部CNNを設計し,高い精度(92.25%)と現実的状況におけるコンクリートのひび割れ発見の堅牢性を示した。
論文 参考訳(メタデータ) (2020-09-22T15:17:02Z) - Retinal Image Segmentation with a Structure-Texture Demixing Network [62.69128827622726]
複雑な構造とテクスチャ情報は網膜画像に混在し、その情報の識別が困難である。
既存の手法はテクスチャと構造を共同で扱うため、偏りのあるモデルをテクスチャ認識に導くことができ、結果としてセグメンテーション性能は低下する。
本稿では,構造成分とテクスチャ成分を分離し,性能を大幅に向上させるセグメンテーション戦略を提案する。
論文 参考訳(メタデータ) (2020-07-15T12:19:03Z) - Vid2Curve: Simultaneous Camera Motion Estimation and Thin Structure
Reconstruction from an RGB Video [90.93141123721713]
ワイヤーフレーム彫刻、フェンス、ケーブル、電力線、木の枝などの細い構造は現実世界では一般的である。
従来の画像ベースや深度ベースの再構築手法を用いて3Dデジタルモデルを入手することは極めて困難である。
ハンドヘルドカメラで撮影したカラービデオから,カメラの動きを同時に推定し,複雑な3次元薄膜構造の形状を高品質に再構成する手法を提案する。
論文 参考訳(メタデータ) (2020-05-07T10:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。