論文の概要: MotorFactory: A Blender Add-on for Large Dataset Generation of Small
Electric Motors
- arxiv url: http://arxiv.org/abs/2301.05028v1
- Date: Wed, 11 Jan 2023 18:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 15:12:23.714353
- Title: MotorFactory: A Blender Add-on for Large Dataset Generation of Small
Electric Motors
- Title(参考訳): MotorFactory:小型電動機の大容量データ生成のためのブレンダーアドオン
- Authors: Chengzhi Wu, Kanran Zhou, Jan-Philipp Kaiser, Norbert Mitschke,
Jan-Felix Klein, Julius Pfrommer, J\"urgen Beyerer, Gisela Lanza, Michael
Heizmann and Kai Furmans
- Abstract要約: 各種モータインスタンスのカスタムメッシュモデルを生成するために,Blender アドオンである MotorFactory を提案する。
生成された合成データセットは、モータタイプの分類、分散化された物質移動タスクのためのオブジェクト検出など、さまざまなタスクに使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To enable automatic disassembly of different product types with uncertain
conditions and degrees of wear in remanufacturing, agile production systems
that can adapt dynamically to changing requirements are needed. Machine
learning algorithms can be employed due to their generalization capabilities of
learning from various types and variants of products. However, in reality,
datasets with a diversity of samples that can be used to train models are
difficult to obtain in the initial period. This may cause bad performances when
the system tries to adapt to new unseen input data in the future. In order to
generate large datasets for different learning purposes, in our project, we
present a Blender add-on named MotorFactory to generate customized mesh models
of various motor instances. MotorFactory allows to create mesh models which,
complemented with additional add-ons, can be further used to create synthetic
RGB images, depth images, normal images, segmentation ground truth masks, and
3D point cloud datasets with point-wise semantic labels. The created synthetic
datasets may be used for various tasks including motor type classification,
object detection for decentralized material transfer tasks, part segmentation
for disassembly and handling tasks, or even reinforcement learning-based
robotics control or view-planning.
- Abstract(参考訳): 再生産において、不確かな条件と摩耗度を有する異なる製品タイプの自動分解を可能にするために、要求の変更に動的に適応できるアジャイル生産システムが必要である。
機械学習アルゴリズムは、様々な種類の製品から学習する一般化能力によって採用することができる。
しかし、実際には、モデルのトレーニングに使用できるサンプルの多様性を持つデータセットは、初期段階では取得が困難である。
これは、システムが将来目に見えない新しい入力データに適応しようとすると、パフォーマンスが悪くなる可能性がある。
学習目的の異なる大規模データセットを生成するために,本プロジェクトでは,様々なモータインスタンスのメッシュモデルを生成するために motorfactory というブレンダアドオンを提案する。
MotorFactoryは、追加のアドオンを補完するメッシュモデルを作成し、合成RGBイメージ、深度画像、通常の画像、セグメンテーショングラウンドの真実マスク、ポイントワイドなセマンティックラベルを持つ3Dポイントクラウドデータセットを作成するためにさらに使用できる。
生成された合成データセットは、モータータイプ分類、分散された物質転送タスクのオブジェクト検出、分解と処理のための部分セグメンテーション、強化された学習に基づくロボティクス制御やビュープランニングなど、さまざまなタスクに使用することができる。
関連論文リスト
- SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - 3D-VirtFusion: Synthetic 3D Data Augmentation through Generative Diffusion Models and Controllable Editing [52.68314936128752]
本研究では,事前学習された大規模基盤モデルのパワーを活用して,3次元ラベル付きトレーニングデータを自動的に生成する新しいパラダイムを提案する。
各ターゲットセマンティッククラスに対して、まず、拡散モデルとチャットGPT生成したテキストプロンプトを介して、様々な構造と外観の1つのオブジェクトの2D画像を生成する。
我々は、これらの拡張画像を3Dオブジェクトに変換し、ランダムな合成によって仮想シーンを構築する。
論文 参考訳(メタデータ) (2024-08-25T09:31:22Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - A Configurable Library for Generating and Manipulating Maze Datasets [0.9268994664916388]
迷路は様々な生成アルゴリズムのために優れたテストベッドとして機能する。
我々は、maze-solvingタスクからなるデータセットの生成、処理、視覚化のための包括的なライブラリである、$textttmaze-dataset$を提示する。
論文 参考訳(メタデータ) (2023-09-19T10:20:11Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Data Models for Dataset Drift Controls in Machine Learning With Optical
Images [8.818468649062932]
主な障害モードは、トレーニングデータとデプロイメントデータの違いによるパフォーマンス低下である。
既存のアプローチでは、関心の対象であるデータ(データ)の明示的なモデルは説明できない。
本研究では、画像データに対してそのようなデータモデルを構築する方法を示し、データセットのドリフトに関連する下流機械学習モデルの性能を制御する。
論文 参考訳(メタデータ) (2022-11-04T16:50:10Z) - Rewriting Geometric Rules of a GAN [32.22250082294461]
現在の機械学習アプローチでは、創造的なプロセスの重要な要素を見逃している。
我々は、ユーザが所望の幾何学的変化を伴う少数のオリジナルのモデル出力を編集することで、与えられたモデルを「ワープ」できるようにします。
提案手法により,ユーザが定義した幾何学的変化を伴って無限オブジェクトを合成するモデルを作成し,大規模データセットの計算を伴わずに新たな生成モデルを作成することができる。
論文 参考訳(メタデータ) (2022-07-28T17:59:36Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Conditional Generation of Synthetic Geospatial Images from Pixel-level
and Feature-level Inputs [0.0]
画素レベル条件 (PLC) と特徴レベル条件 (FLC) を同時に条件付きで合成する条件生成モデル VAE-Info-cGAN を提案する。
提案モデルでは,道路網の時間的表現のみを条件に,異なる地理的位置をまたいだ様々な形態のマクロアグリゲーションを高精度に生成することができる。
論文 参考訳(メタデータ) (2021-09-11T06:58:19Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。