論文の概要: CarDD: A New Dataset for Vision-based Car Damage Detection
- arxiv url: http://arxiv.org/abs/2211.00945v2
- Date: Mon, 28 Aug 2023 11:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 01:23:54.042220
- Title: CarDD: A New Dataset for Vision-based Car Damage Detection
- Title(参考訳): CarDD: 視覚に基づく自動車損傷検出のための新しいデータセット
- Authors: Xinkuang Wang, Wenjing Li, Zhongcheng Wu
- Abstract要約: カー損傷検出(CarDD)は,視覚に基づく車両損傷検出とセグメンテーションのために設計された,最初の大規模データセットである。
我々のCarDDは、4000以上の高解像度の自動車損傷画像と6つの損傷カテゴリの9000以上のよく注釈された事例を含んでいる。
本稿では,画像の収集,選択,アノテーションのプロセスについて詳述し,統計的データセット解析について述べる。
- 参考スコア(独自算出の注目度): 13.284578516117804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic car damage detection has attracted significant attention in the car
insurance business. However, due to the lack of high-quality and publicly
available datasets, we can hardly learn a feasible model for car damage
detection. To this end, we contribute with Car Damage Detection (CarDD), the
first public large-scale dataset designed for vision-based car damage detection
and segmentation. Our CarDD contains 4,000 highresolution car damage images
with over 9,000 well-annotated instances of six damage categories. We detail
the image collection, selection, and annotation processes, and present a
statistical dataset analysis. Furthermore, we conduct extensive experiments on
CarDD with state-of-the-art deep methods for different tasks and provide
comprehensive analyses to highlight the specialty of car damage detection.
CarDD dataset and the source code are available at
https://cardd-ustc.github.io.
- Abstract(参考訳): 自動車の損害自動検出は自動車保険業界で大きな注目を集めている。
しかし、高品質で公開可能なデータセットが不足しているため、自動車の損傷検出が可能なモデルはほとんど学べない。
この目的のために,視覚に基づく車両損傷検出とセグメンテーション用に設計された,最初の公開大規模データセットであるcar damage detection (cardd) にコントリビュートする。
我々のCarDDは、4000以上の高解像度の自動車損傷画像と6つの損傷カテゴリの9000以上のよく注釈された事例を含んでいる。
画像収集,選択,アノテーションのプロセスについて詳述し,統計的データセット解析について述べる。
さらに,各タスクに対する最先端のディープメソッドを用いたCarDDの広範な実験を行い,自動車損傷検出の専門性を明らかにするための総合的な分析を行った。
cardd datasetとソースコードはhttps://cardd-ustc.github.ioで入手できる。
関連論文リスト
- A Large-Scale Car Parts (LSCP) Dataset for Lightweight Fine-Grained
Detection [0.23020018305241333]
本稿では,12種類の自動車部品を検出するため,84,162枚の画像からなる大規模できめ細かな自動車データセットを提案する。
手動アノテーションの負担を軽減するため,新しい半教師付き自動ラベリング手法を提案する。
また,ゼロショットラベリングにおけるグラウンディングDINOアプローチの限界についても検討する。
論文 参考訳(メタデータ) (2023-11-20T13:30:42Z) - Cross-Domain Car Detection Model with Integrated Convolutional Block
Attention Mechanism [3.3843451892622576]
統合畳み込みブロックアテンション機構を用いたクロスドメイン車目標検出モデルを提案する。
実験の結果,我々のフレームワークを使わずに,モデルの性能が40%向上したことがわかった。
論文 参考訳(メタデータ) (2023-05-31T17:28:13Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture [0.17499351967216337]
高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)は、重車両の盲点衝突を検出するために提案される。
盲点車両検出のための高次特徴抽出のための2つの事前学習ネットワークを統合するために,融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-17T11:10:37Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。