論文の概要: Using Images from a Video Game to Improve the Detection of Truck Axles
- arxiv url: http://arxiv.org/abs/2509.25644v1
- Date: Tue, 30 Sep 2025 01:28:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.381891
- Title: Using Images from a Video Game to Improve the Detection of Truck Axles
- Title(参考訳): ビデオゲームからの画像を用いたトラック軸検出の改善
- Authors: Leandro Arab Marcomini, Andre Luiz Cunha,
- Abstract要約: 本稿では,コンピュータゲームから抽出した画像がCNNの訓練に有効であるかどうかを判断し,実生活におけるトラックの車軸を検出することを目的とする。
実生活と合成トラックを備えた3つの異なるデータベースが作成され、トレーニングとテストの例が提供された。
その結果、合成画像はニューラルネットワークのトレーニングに利用でき、知識を抽出するための信頼性と低コストなデータソースを提供することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) traditionally require large amounts of data to train models with good performance. However, data collection is an expensive process, both in time and resources. Generated synthetic images are a good alternative, with video games producing realistic 3D models. This paper aims to determine whether images extracted from a video game can be effectively used to train a CNN to detect real-life truck axles. Three different databases were created, with real-life and synthetic trucks, to provide training and testing examples for three different You Only Look Once (YOLO) architectures. Results were evaluated based on four metrics: recall, precision, F1-score, and mean Average Precision (mAP). To evaluate the statistical significance of the results, the Mann-Whitney U test was also applied to the resulting mAP of all models. Synthetic images from trucks extracted from a video game proved to be a reliable source of training data, contributing to the performance of all networks. The highest mAP score reached 99\%. Results indicate that synthetic images can be used to train neural networks, providing a reliable, low-cost data source for extracting knowledge.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は伝統的に、優れたパフォーマンスでモデルをトレーニングするために大量のデータを必要とする。
しかし、データ収集は時間とリソースの両方において高価なプロセスである。
生成された合成画像は優れた代替手段であり、ビデオゲームはリアルな3Dモデルを生成する。
本稿では,コンピュータゲームから抽出した画像がCNNの訓練に有効であるかどうかを判断し,実生活におけるトラックの車軸を検出することを目的とする。
リアルタイムおよび合成トラックを備えた3つの異なるデータベースが作成され、3つの異なるYou Only Look Once (YOLO)アーキテクチャのトレーニングとテスト例が提供されている。
その結果,リコール,精度,F1スコア,平均精度(mAP)の4つの指標に基づいて評価した。
結果の統計的意義を評価するため、Mann-Whitney Uテストは全てのモデルのmAPにも適用された。
ビデオゲームから抽出したトラックの合成画像は、トレーニングデータの信頼性の高い情報源であることが証明され、全てのネットワークの性能に寄与した。
最も高いmAPスコアは99\%に達した。
その結果、合成画像はニューラルネットワークのトレーニングに利用でき、知識を抽出するための信頼性と低コストなデータソースを提供することがわかった。
関連論文リスト
- Appeal prediction for AI up-scaled Images [45.61706071739717]
136のベースイメージと5つの異なるアップスケーリング手法を用いて構築したデータセットについて述べる。
その結果,Real-ESRGANとBSRGANが最適であることが示唆された。
これに加えて,最先端画像の魅力と品質モデルの評価を行ったが,どのモデルも高い予測性能を示しなかった。
論文 参考訳(メタデータ) (2025-02-19T13:45:24Z) - Learning from Synthetic Data for Visual Grounding [55.21937116752679]
そこで本研究では,SynGroundが市販のビジョン・アンド・ランゲージモデルのローカライズ能力を向上できることを示す。
SynGroundで生成されたデータは、事前訓練されたALBEFモデルとBLIPモデルのポインティングゲーム精度をそれぞれ4.81%、絶対パーセンテージポイント17.11%向上させる。
論文 参考訳(メタデータ) (2024-03-20T17:59:43Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - Synthetic Image Data for Deep Learning [0.294944680995069]
3次元モデルからレンダリングされたリアルな合成画像データを使用して、画像集合を拡大し、画像分類セグメンテーションモデルを訓練することができる。
実車の生産3次元CADモデルに基づく大規模合成データセットを,高品質な物理ベースレンダリングとドメインランダム化により効率的に作成できることを示す。
論文 参考訳(メタデータ) (2022-12-12T20:28:13Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Truck Axle Detection with Convolutional Neural Networks [0.0]
本稿では,トラック車軸検出のための3つのディープラーニングオブジェクト検出アルゴリズム,YOLO,Faster R-CNN,SSDを比較した。
ニューラルネットワークのトレーニングとテストの例を提供するために、データセットが構築された。
その結果、YOLOとSSDの精度と性能は類似しており、どちらのモデルも96% mAP以上であることがわかった。
論文 参考訳(メタデータ) (2022-04-04T22:11:49Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z) - Can Synthetic Data Improve Object Detection Results for Remote Sensing
Images? [15.466412729455874]
本稿では,リモートセンシング画像航空機検出の性能向上のために,広域分布のリアルな合成データの利用を提案する。
レンダリング中に、インスタンスのサイズや背景画像のクラスなど、パラメータをランダムに設定します。
合成画像をよりリアルにするために,CycleGANと実際の未ラベル画像を用いて,画素レベルで合成画像を洗練する。
論文 参考訳(メタデータ) (2020-06-09T02:23:22Z) - SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction [78.91518036949918]
本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
論文 参考訳(メタデータ) (2020-04-04T21:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。