論文の概要: SODA: Site Object Detection dAtaset for Deep Learning in Construction
- arxiv url: http://arxiv.org/abs/2202.09554v1
- Date: Sat, 19 Feb 2022 09:09:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 12:25:12.763326
- Title: SODA: Site Object Detection dAtaset for Deep Learning in Construction
- Title(参考訳): SODA: 建設における深層学習のためのサイトオブジェクト検出dAtaset
- Authors: Rui Duan, Hui Deng, Mao Tian, Yichuan Deng, Jiarui Lin
- Abstract要約: 本稿では,Site Object Detection dAtaset (SODA) と呼ばれる,建設現場で収集・注釈付の大規模画像データセットを開発する。
異なる現場条件、気象条件、建設段階において複数の建設現場から2万枚以上の画像が収集され、異なる角度と視点をカバーした。
慎重なスクリーニングと処理の後、286,201個のオブジェクトを含む19,846個の画像が得られた。
- 参考スコア(独自算出の注目度): 3.5061054566652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision-based deep learning object detection algorithms have been
developed sufficiently powerful to support the ability to recognize various
objects. Although there are currently general datasets for object detection,
there is still a lack of large-scale, open-source dataset for the construction
industry, which limits the developments of object detection algorithms as they
tend to be data-hungry. Therefore, this paper develops a new large-scale image
dataset specifically collected and annotated for the construction site, called
Site Object Detection dAtaset (SODA), which contains 15 kinds of object classes
categorized by workers, materials, machines, and layout. Firstly, more than
20,000 images were collected from multiple construction sites in different site
conditions, weather conditions, and construction phases, which covered
different angles and perspectives. After careful screening and processing,
19,846 images including 286,201 objects were then obtained and annotated with
labels in accordance with predefined categories. Statistical analysis shows
that the developed dataset is advantageous in terms of diversity and volume.
Further evaluation with two widely-adopted object detection algorithms based on
deep learning (YOLO v3/ YOLO v4) also illustrates the feasibility of the
dataset for typical construction scenarios, achieving a maximum mAP of 81.47%.
In this manner, this research contributes a large-scale image dataset for the
development of deep learning-based object detection methods in the construction
industry and sets up a performance benchmark for further evaluation of
corresponding algorithms in this area.
- Abstract(参考訳): コンピュータビジョンに基づくディープラーニング物体検出アルゴリズムは,様々な物体の認識を支援するために十分に強力に開発された。
現在、オブジェクト検出のための一般的なデータセットは存在するが、建設業界にはまだ大規模なオープンソースのデータセットが欠けている。
そこで本稿では,建設現場を対象とする大規模画像データセットであるsoda(site object detection dataset)を開発し,作業者,材料,機械,レイアウトによって分類された15種類のオブジェクトクラスを含む。
まず、2万以上の画像が、異なる場所条件、気象条件、建設段階の複数の建設現場から収集され、異なる角度と視点がカバーされた。
慎重なスクリーニングと処理の後、286,201個のオブジェクトを含む19,846個の画像が得られた。
統計的分析により、このデータセットは多様性と容積の点で有利であることが示されている。
ディープラーニング(YOLO v3/YOLO v4)に基づく2つの大規模オブジェクト検出アルゴリズムによるさらなる評価も、典型的な構築シナリオに対するデータセットの実現可能性を示し、最大mAPは81.47%である。
そこで本研究では,建設業界におけるディープラーニングに基づく物体検出手法開発のための大規模画像データセットを作成し,それに対応するアルゴリズムのさらなる評価のための性能ベンチマークを構築した。
関連論文リスト
- SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Tiny Object Tracking: A Large-scale Dataset and A Baseline [40.93697515531104]
大規模なビデオデータセットを作成し、合計217Kフレームの434のシーケンスを含む。
データ作成において、幅広い視点とシーンの複雑さをカバーするため、12の課題属性を考慮に入れます。
統合されたフレームワークで3段階の知識蒸留を行うMKDNet(Multilevel Knowledge Distillation Network)を提案する。
論文 参考訳(メタデータ) (2022-02-11T15:00:32Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - The MIS Check-Dam Dataset for Object Detection and Instance Segmentation
Tasks [0.37277730514654556]
MIS Check-Damは衛星画像から得られた新しいチェックダムのデータセットで、チェックダムの検出とマッピングのための自動システムを構築する。
最新のオブジェクト検出およびインスタンスセグメンテーション手法のいくつかをレビューし、新しいデータセットでそれらの性能を評価する。
論文 参考訳(メタデータ) (2021-11-30T18:04:02Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - A Survey of Modern Deep Learning based Object Detection Models [0.7388859384645263]
この記事では、ディープラーニングベースのオブジェクト検出器の最近の開発を調査します。
ベンチマークデータセットと検出に使用される評価メトリクスの概要を提供する。
また、エッジデバイスで使用される現代の軽量な分類モデルもカバーしている。
論文 参考訳(メタデータ) (2021-04-24T06:33:54Z) - FAIR1M: A Benchmark Dataset for Fine-grained Object Recognition in
High-Resolution Remote Sensing Imagery [21.9319970004788]
我々は,高分解能リモートセンシング画像において,100万以上のインスタンスと15,000以上の画像を含む新しいベンチマークデータセットを提案する。
FAIR1Mデータセットのすべてのオブジェクトは、指向境界ボックスによって5つのカテゴリと37のサブカテゴリに関してアノテートされます。
論文 参考訳(メタデータ) (2021-03-09T17:20:15Z) - Object Detection in Aerial Images: A Large-Scale Benchmark and
Challenges [124.48654341780431]
航空画像(DOTA)におけるオブジェクトデテクションの大規模データセットとODAIの総合的ベースラインについて述べる。
提案するDOTAデータセットは,11,268個の空中画像から収集した18カテゴリのオブジェクト指向ボックスアノテーションの1,793,658個のオブジェクトインスタンスを含む。
70以上の構成を持つ10の最先端アルゴリズムをカバーするベースラインを構築し,各モデルの速度と精度を評価した。
論文 参考訳(メタデータ) (2021-02-24T11:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。