論文の概要: CrashCar101: Procedural Generation for Damage Assessment
- arxiv url: http://arxiv.org/abs/2311.06536v1
- Date: Sat, 11 Nov 2023 11:12:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 18:08:32.604338
- Title: CrashCar101: Procedural Generation for Damage Assessment
- Title(参考訳): CrashCar101: 損傷評価のための手続き生成
- Authors: Jens Parslov, Erik Riise, Dim P. Papadopoulos
- Abstract要約: 3Dカーモデルに損傷を与えるプロシージャ生成パイプラインを提案する。
本研究では, 損傷車両の2次元画像と画素精度アノテーションを組み合わせて, 部分的・損傷的カテゴリの合成画像を得る。
パートセグメンテーションでは、実データと合成データの組み合わせで訓練されたセグメンテーションモデルが、実データのみで訓練されたすべてのモデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 6.172653479848284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we are interested in addressing the problem of damage
assessment for vehicles, such as cars. This task requires not only detecting
the location and the extent of the damage but also identifying the damaged
part. To train a computer vision system for the semantic part and damage
segmentation in images, we need to manually annotate images with costly pixel
annotations for both part categories and damage types. To overcome this need,
we propose to use synthetic data to train these models. Synthetic data can
provide samples with high variability, pixel-accurate annotations, and
arbitrarily large training sets without any human intervention. We propose a
procedural generation pipeline that damages 3D car models and we obtain
synthetic 2D images of damaged cars paired with pixel-accurate annotations for
part and damage categories. To validate our idea, we execute our pipeline and
render our CrashCar101 dataset. We run experiments on three real datasets for
the tasks of part and damage segmentation. For part segmentation, we show that
the segmentation models trained on a combination of real data and our synthetic
data outperform all models trained only on real data. For damage segmentation,
we show the sim2real transfer ability of CrashCar101.
- Abstract(参考訳): 本稿では,自動車などの車両の損傷評価の問題に対処することに関心がある。
この作業では、位置や損傷の程度を検出するだけでなく、損傷部分の特定も必要となる。
画像中の意味的部分と損傷のセグメンテーションのためのコンピュータビジョンシステムを訓練するためには,画像に高コストの画素アノテーションを加えて手動でアノテートする必要がある。
このニーズを克服するために、これらのモデルをトレーニングするために合成データを使用することを提案する。
合成データは、高い可変性、ピクセル精度のアノテーション、そして人間の介入なしに任意に大きなトレーニングセットをサンプルに提供することができる。
本研究では, 3次元車両モデルに損傷を与えるプロシージャ生成パイプラインを提案し, 部品および損傷カテゴリに対する画素精度アノテーションと組み合わせた損傷車両の合成2次元画像を得る。
私たちのアイデアを検証するために、パイプラインを実行し、CrashCar101データセットをレンダリングします。
部品分割と損傷分割のタスクのために、3つの実際のデータセットで実験を行う。
部分セグメンテーションについては,実データと合成データの組み合わせで学習したセグメンテーションモデルが,実データのみでトレーニングされたすべてのモデルよりも優れていることを示す。
損傷セグメンテーションではCrashCar101のsim2real転送能力を示す。
関連論文リスト
- DeepDamageNet: A two-step deep-learning model for multi-disaster building damage segmentation and classification using satellite imagery [12.869300064524122]
本稿では, 損傷評価, セグメンテーション, 分類において, ディープラーニングモデルによる2つの重要な課題を遂行するソリューションを提案する。
我々の最良のモデルは、建物識別セマンティックセグメンテーション畳み込みニューラルネットワーク(CNN)と建物損傷分類CNNを組み合わせ、合計F1スコアは0.66である。
本モデルでは比較的精度の高い建物を同定することができたが,災害タイプによる被害の分類は困難であることが判明した。
論文 参考訳(メタデータ) (2024-05-08T04:21:03Z) - Pedestrian Environment Model for Automated Driving [54.16257759472116]
歩行者の位置とポーズ情報を含む環境モデルを提案する。
画像から人間のポーズ推定器を用いて骨格情報を抽出する。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
論文 参考訳(メタデータ) (2023-08-17T16:10:58Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Joint one-sided synthetic unpaired image translation and segmentation
for colorectal cancer prevention [16.356954231068077]
我々は3D技術と生成対向ネットワークを組み合わせたリアルな合成画像を作成する。
CUT-segは,分割モデルと生成モデルとを共同で訓練し,現実的な画像を生成する共同訓練である。
この研究の一環として、20000のリアルな大腸画像を含む完全に合成されたデータセットであるSynth-Colonをリリースする。
論文 参考訳(メタデータ) (2023-07-20T22:09:04Z) - Synthetic Data for Object Classification in Industrial Applications [53.180678723280145]
オブジェクト分類では、オブジェクトごとに、異なる条件下で、多数の画像を取得することは必ずしも不可能である。
本研究は,学習データセット内の限られたデータに対処するゲームエンジンを用いた人工画像の作成について検討する。
論文 参考訳(メタデータ) (2022-12-09T11:43:04Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。