論文の概要: SHREC 2022: pothole and crack detection in the road pavement using
images and RGB-D data
- arxiv url: http://arxiv.org/abs/2205.13326v2
- Date: Fri, 27 May 2022 13:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 10:45:34.684502
- Title: SHREC 2022: pothole and crack detection in the road pavement using
images and RGB-D data
- Title(参考訳): SHREC 2022:画像とRGB-Dデータを用いた道路舗装の穴と亀裂検出
- Authors: Elia Moscoso Thompson, Andrea Ranieri, Silvia Biasotti, Miguel
Chicchon, Ivan Sipiran, Minh-Khoi Pham, Thang-Long Nguyen-Ho, Hai-Dang
Nguyen, Minh-Triet Tran
- Abstract要約: SHREC 2022 軌道へのポットホールと道路舗装の亀裂検出のための提案手法
すべてのメソッドがディープラーニング技術を利用しており、そのパフォーマンスは同じ環境でテストされている。
- 参考スコア(独自算出の注目度): 6.322851567034375
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper describes the methods submitted for evaluation to the SHREC 2022
track on pothole and crack detection in the road pavement. A total of 7
different runs for the semantic segmentation of the road surface are compared,
6 from the participants plus a baseline method. All methods exploit Deep
Learning techniques and their performance is tested using the same environment
(i.e.: a single Jupyter notebook). A training set, composed of 3836 semantic
segmentation image/mask pairs and 797 RGB-D video clips collected with the
latest depth cameras was made available to the participants. The methods are
then evaluated on the 496 image/mask pairs in the validation set, on the 504
pairs in the test set and finally on 8 video clips. The analysis of the results
is based on quantitative metrics for image segmentation and qualitative
analysis of the video clips. The participation and the results show that the
scenario is of great interest and that the use of RGB-D data is still
challenging in this context.
- Abstract(参考訳): 本稿では,SHREC 2022の道路舗装におけるポットホールと亀裂検出のための評価手法について述べる。
道路面のセマンティクスセグメンテーションのための合計7つの異なるランを比較し、参加者から6つとベースライン法とを比較した。
すべてのメソッドがディープラーニング技術を利用し、そのパフォーマンスは同じ環境(つまり単一のjupyterノートブック)を使ってテストされる。
身近な深度カメラで収集した3836のセマンティックセグメンテーション画像/マスクペアと797のrgb-dビデオクリップからなるトレーニングセットが参加者に提供された。
次に、検証セットの496のイメージ/マスクペア、テストセットの504のペア、最後に8のビデオクリップで評価する。
結果の分析は,ビデオクリップの映像分割と質的分析の定量的指標に基づいて行われる。
参加と結果から,シナリオは非常に興味深く,rgb-dデータの利用はいまだに困難であることが示された。
関連論文リスト
- Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network [0.0]
本研究では,残差情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案する。
Change Detection 2014とPetrobrasのプライベートデータセットであるPetrobrasROUTESで実施された実験は、提案手法の有効性を支持している。
論文 参考訳(メタデータ) (2022-12-20T16:56:54Z) - MIPI 2022 Challenge on RGBW Sensor Re-mosaic: Dataset and Report [90.34148262169595]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者は、高品質なRGBWとBayerペアの70(トレーニング)と15(検証)シーンを含む、新しいデータセットを与えられた。
すべてのデータは、屋外と屋内の両方でRGBWセンサーで撮影されました。
論文 参考訳(メタデータ) (2022-09-15T06:06:56Z) - MIPI 2022 Challenge on RGBW Sensor Fusion: Dataset and Report [90.34148262169595]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含む,最初のMIPI課題を紹介する。
参加者は、高品質なRGBWとBayerペアの70(トレーニング)と15(検証)シーンを含む、新しいデータセットを与えられた。
すべてのデータは、屋外と屋内の両方でRGBWセンサーで撮影されました。
論文 参考訳(メタデータ) (2022-09-15T05:56:53Z) - MIPI 2022 Challenge on RGB+ToF Depth Completion: Dataset and Report [92.61915017739895]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者にはTetrasRGBDという,高品質な合成RGB+Depthトレーニングデータ18万組と,混合ソースからの2.3万組のテストデータを含む,新たなデータセットが提供される。
最終結果は客観的指標と平均オピニオンスコア(MOS)を主観的に評価する。
論文 参考訳(メタデータ) (2022-09-15T05:31:53Z) - TokenCut: Segmenting Objects in Images and Videos with Self-supervised
Transformer and Normalized Cut [9.609330588890632]
本稿では,自己教師型トランスフォーマーによって得られた特徴を利用して,画像やビデオ中の有能なオブジェクトを検出し,セグメント化するグラフベースのアルゴリズムについて述べる。
このアプローチの単純さにもかかわらず、いくつかの共通画像およびビデオ検出およびセグメンテーションタスクにおける最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-09-01T11:52:26Z) - Shot boundary detection method based on a new extensive dataset and
mixed features [68.8204255655161]
ビデオにおけるショット境界検出は、ビデオデータ処理の重要な段階の1つである。
カラーヒストグラムや物体境界などの映像特徴に基づくショット境界検出法が提案されている。
論文 参考訳(メタデータ) (2021-09-02T16:19:24Z) - BOP Challenge 2020 on 6D Object Localization [56.591561228575635]
BOP Challenge 2020は、RGB-D画像から6Dオブジェクトのポーズを推定する分野における現状を捉えることを目標とする、一連の公開コンペティションの3番目である。
参加者はBlenderProc4BOPが生成した350Kのトレーニング画像、新しいオープンソースで軽量な物理ベース(PBR)と手続きデータジェネレータが提供された。
トップパフォーマンスの手法はRGB-D画像チャンネルに依存しているが、トレーニングとテストの両方でRGBチャンネルのみを使用した場合、強い結果が得られた。
論文 参考訳(メタデータ) (2020-09-15T22:35:14Z) - 3D-DEEP: 3-Dimensional Deep-learning based on elevation patterns forroad
scene interpretation [0.0]
CNNに基づくセマンティックセグメンテーションのための新しいネットアーキテクチャ(3D-DEEP)とそのエンドツーエンドトレーニング手法について述べる。
開発されたモデルは、Cityscapesデータセット上でトレーニングされ、検証された。
一方、KITTIdatasetでは、F1エラー値は97.85%、96.02%に達している。
論文 参考訳(メタデータ) (2020-09-01T10:18:08Z) - Depth-Based Selective Blurring in Stereo Images Using Accelerated
Framework [5.647516208808729]
本稿では,ブロックと領域ベースステレオマッチングを組み合わせたステレオ異方性推定手法を提案する。
画像画素の18%の差分測定から高密度の深度マップを生成する。
本手法は, Java Thread Pool と APARAPI をベースとした CPU および GPU フレームワークを用いて並列化可能である。
論文 参考訳(メタデータ) (2020-01-21T23:26:39Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。