論文の概要: MotorFactory: A Blender Add-on for Large Dataset Generation of Small
Electric Motors
- arxiv url: http://arxiv.org/abs/2301.05028v1
- Date: Wed, 11 Jan 2023 18:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 15:12:23.714353
- Title: MotorFactory: A Blender Add-on for Large Dataset Generation of Small
Electric Motors
- Title(参考訳): MotorFactory:小型電動機の大容量データ生成のためのブレンダーアドオン
- Authors: Chengzhi Wu, Kanran Zhou, Jan-Philipp Kaiser, Norbert Mitschke,
Jan-Felix Klein, Julius Pfrommer, J\"urgen Beyerer, Gisela Lanza, Michael
Heizmann and Kai Furmans
- Abstract要約: 各種モータインスタンスのカスタムメッシュモデルを生成するために,Blender アドオンである MotorFactory を提案する。
生成された合成データセットは、モータタイプの分類、分散化された物質移動タスクのためのオブジェクト検出など、さまざまなタスクに使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To enable automatic disassembly of different product types with uncertain
conditions and degrees of wear in remanufacturing, agile production systems
that can adapt dynamically to changing requirements are needed. Machine
learning algorithms can be employed due to their generalization capabilities of
learning from various types and variants of products. However, in reality,
datasets with a diversity of samples that can be used to train models are
difficult to obtain in the initial period. This may cause bad performances when
the system tries to adapt to new unseen input data in the future. In order to
generate large datasets for different learning purposes, in our project, we
present a Blender add-on named MotorFactory to generate customized mesh models
of various motor instances. MotorFactory allows to create mesh models which,
complemented with additional add-ons, can be further used to create synthetic
RGB images, depth images, normal images, segmentation ground truth masks, and
3D point cloud datasets with point-wise semantic labels. The created synthetic
datasets may be used for various tasks including motor type classification,
object detection for decentralized material transfer tasks, part segmentation
for disassembly and handling tasks, or even reinforcement learning-based
robotics control or view-planning.
- Abstract(参考訳): 再生産において、不確かな条件と摩耗度を有する異なる製品タイプの自動分解を可能にするために、要求の変更に動的に適応できるアジャイル生産システムが必要である。
機械学習アルゴリズムは、様々な種類の製品から学習する一般化能力によって採用することができる。
しかし、実際には、モデルのトレーニングに使用できるサンプルの多様性を持つデータセットは、初期段階では取得が困難である。
これは、システムが将来目に見えない新しい入力データに適応しようとすると、パフォーマンスが悪くなる可能性がある。
学習目的の異なる大規模データセットを生成するために,本プロジェクトでは,様々なモータインスタンスのメッシュモデルを生成するために motorfactory というブレンダアドオンを提案する。
MotorFactoryは、追加のアドオンを補完するメッシュモデルを作成し、合成RGBイメージ、深度画像、通常の画像、セグメンテーショングラウンドの真実マスク、ポイントワイドなセマンティックラベルを持つ3Dポイントクラウドデータセットを作成するためにさらに使用できる。
生成された合成データセットは、モータータイプ分類、分散された物質転送タスクのオブジェクト検出、分解と処理のための部分セグメンテーション、強化された学習に基づくロボティクス制御やビュープランニングなど、さまざまなタスクに使用することができる。
関連論文リスト
- Pushing Auto-regressive Models for 3D Shape Generation at Capacity and
Scalability [121.44324465222498]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - A Configurable Library for Generating and Manipulating Maze Datasets [0.9268994664916388]
迷路は様々な生成アルゴリズムのために優れたテストベッドとして機能する。
我々は、maze-solvingタスクからなるデータセットの生成、処理、視覚化のための包括的なライブラリである、$textttmaze-dataset$を提示する。
論文 参考訳(メタデータ) (2023-09-19T10:20:11Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - Data Models for Dataset Drift Controls in Machine Learning With Optical
Images [8.818468649062932]
主な障害モードは、トレーニングデータとデプロイメントデータの違いによるパフォーマンス低下である。
既存のアプローチでは、関心の対象であるデータ(データ)の明示的なモデルは説明できない。
本研究では、画像データに対してそのようなデータモデルを構築する方法を示し、データセットのドリフトに関連する下流機械学習モデルの性能を制御する。
論文 参考訳(メタデータ) (2022-11-04T16:50:10Z) - Rewriting Geometric Rules of a GAN [32.22250082294461]
現在の機械学習アプローチでは、創造的なプロセスの重要な要素を見逃している。
我々は、ユーザが所望の幾何学的変化を伴う少数のオリジナルのモデル出力を編集することで、与えられたモデルを「ワープ」できるようにします。
提案手法により,ユーザが定義した幾何学的変化を伴って無限オブジェクトを合成するモデルを作成し,大規模データセットの計算を伴わずに新たな生成モデルを作成することができる。
論文 参考訳(メタデータ) (2022-07-28T17:59:36Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Conditional Generation of Synthetic Geospatial Images from Pixel-level
and Feature-level Inputs [0.0]
画素レベル条件 (PLC) と特徴レベル条件 (FLC) を同時に条件付きで合成する条件生成モデル VAE-Info-cGAN を提案する。
提案モデルでは,道路網の時間的表現のみを条件に,異なる地理的位置をまたいだ様々な形態のマクロアグリゲーションを高精度に生成することができる。
論文 参考訳(メタデータ) (2021-09-11T06:58:19Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。