論文の概要: Pallet Detection from Synthetic Data Using Game Engines
- arxiv url: http://arxiv.org/abs/2304.03602v1
- Date: Fri, 7 Apr 2023 11:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 12:05:23.052387
- Title: Pallet Detection from Synthetic Data Using Game Engines
- Title(参考訳): ゲームエンジンを用いた合成データからのパレット検出
- Authors: Jouveer Naidoo, Nicholas Bates, Trevor Gee, Mahla Nejati
- Abstract要約: 本研究は, ゲームエンジンを用いて, パレットセグメンテーションの文脈において, 機械学習のための合成トレーニングデータを生成することの実現可能性を評価することを目的とする。
我々は,3次元モデルから大量の注釈付きトレーニングデータを画素完全精度で自動生成できるツールを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This research sets out to assess the viability of using game engines to
generate synthetic training data for machine learning in the context of pallet
segmentation. Using synthetic data has been proven in prior research to be a
viable means of training neural networks and saves hours of manual labour due
to the reduced need for manual image annotation. Machine vision for pallet
detection can benefit from synthetic data as the industry increases the
development of autonomous warehousing technologies. As per our methodology, we
developed a tool capable of automatically generating large amounts of annotated
training data from 3D models at pixel-perfect accuracy and a much faster rate
than manual approaches. Regarding image segmentation, a Mask R-CNN pipeline was
used, which achieved an AP50 of 86% for individual pallets.
- Abstract(参考訳): 本研究は,パレットセグメンテーションの文脈において,機械学習のための合成学習データを生成するためのゲームエンジンの利用可能性を評価することを目的とする。
合成データの使用は、ニューラルネットワークのトレーニングに有効な手段であることが以前の研究で証明されており、手作業による画像アノテーションの必要性が減り、手作業時間の削減が図られている。
パレット検出のための機械ビジョンは、産業が自律的な倉庫技術の開発を増やすにつれて、合成データの恩恵を受けることができる。
提案手法では,3次元モデルから大量の注釈付きトレーニングデータを画素完全精度で自動生成し,手動によるアプローチよりもはるかに高速に生成するツールを開発した。
イメージセグメンテーションに関しては、Mask R-CNNパイプラインを使用しており、個々のパレットに対してAP50が86%に達した。
関連論文リスト
- Investigation of the Impact of Synthetic Training Data in the Industrial
Application of Terminal Strip Object Detection [4.327763441385371]
本稿では,端末ストリップ物体検出の複雑な産業応用における標準対象検出器のシム・トゥ・リアル一般化性能について検討する。
評価のために300個の実画像に手動でアノテートを行った結果,どちらの領域でも同じ規模の興味の対象が重要であることがわかった。
論文 参考訳(メタデータ) (2024-03-06T18:33:27Z) - View-Dependent Octree-based Mesh Extraction in Unbounded Scenes for
Procedural Synthetic Data [71.22495169640239]
手続き署名距離関数(SDF)は、大規模な詳細なシーンをモデル化するための強力なツールである。
OcMesherというメッシュ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-13T18:56:13Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Defect Classification in Additive Manufacturing Using CNN-Based Vision
Processing [76.72662577101988]
本稿では、まず、畳み込みニューラルネットワーク(CNN)を用いて、画像データセットの欠陥をAMから第2に正確に分類し、発達した分類モデルにアクティブラーニング技術を適用する。
これにより、トレーニングデータやトレーニングデータの生成に必要なデータのサイズを削減できる、ヒューマン・イン・ザ・ループ機構の構築が可能になる。
論文 参考訳(メタデータ) (2023-07-14T14:36:58Z) - Attention Mechanism for Contrastive Learning in GAN-based Image-to-Image
Translation [3.90801108629495]
本稿では,異なる領域にまたがって高品質な画像を生成可能なGANモデルを提案する。
実世界から取得した画像データと3Dゲームからのシミュレーション画像を用いて、Contrastive Learningを利用してモデルを自己指導的に訓練する。
論文 参考訳(メタデータ) (2023-02-23T14:23:23Z) - An adaptive human-in-the-loop approach to emission detection of Additive
Manufacturing processes and active learning with computer vision [76.72662577101988]
In-situ monitoring and process control in Additive Manufacturing (AM) は大量の排出データを収集することを可能にする。
このデータは、3Dプリントされた部品の3Dおよび2D表現への入力として使用できる。
本研究の目的は,機械学習技術を用いた適応型ヒューマン・イン・ザ・ループ手法を提案することである。
論文 参考訳(メタデータ) (2022-12-12T15:11:18Z) - Real-time Detection of 2D Tool Landmarks with Synthetic Training Data [0.0]
本稿では,ハンマーやスクリュードライバーなどの物理ツールのランドマークの2次元位置をリアルタイムで検出する深層学習アーキテクチャを提案する。
手動ラベリングの労力を避けるため、ネットワークは合成されたデータに基づいて訓練される。
本論文では, 中間熱マップモデル (Intermediate Heatmap Model, IHM) と命名し, 合成データを用いて実画像に一般化した。
論文 参考訳(メタデータ) (2022-10-21T14:31:43Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - Hands-Up: Leveraging Synthetic Data for Hands-On-Wheel Detection [0.38233569758620045]
この研究は、ドライバモニタリングシステムのトレーニングに合成フォトリアリスティックインキャビンデータを使用することを実証する。
プラットフォームでエラー解析を行い、欠落したエッジケースを生成することで、パフォーマンスが向上することを示す。
これは、人間中心の合成データが現実世界にうまく一般化する能力を示している。
論文 参考訳(メタデータ) (2022-05-31T23:34:12Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。