論文の概要: WorldGen: A Large Scale Generative Simulator
- arxiv url: http://arxiv.org/abs/2210.00715v1
- Date: Mon, 3 Oct 2022 05:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:52:51.501658
- Title: WorldGen: A Large Scale Generative Simulator
- Title(参考訳): WorldGen: 大規模な生成シミュレータ
- Authors: Chahat Deep Singh, Riya Kumari, Cornelia Ferm\"uller, Nitin J. Sanket,
Yiannis Aloimonos
- Abstract要約: 我々は、無数の構造化された非構造化の3Dフォトリアリスティックシーンを自律的に生成する、オープンソースのフレームワークWorldGenを紹介する。
WorldGenは、ユーザに対して、テクスチャ、オブジェクト構造、モーション、カメラ、レンズプロパティなどの機能への完全なアクセスとコントロールを提供して、より汎用性を高めている。
- 参考スコア(独自算出の注目度): 12.886022807173337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of deep learning, data is the critical determining factor in the
performance of neural network models. Generating large datasets suffers from
various difficulties such as scalability, cost efficiency and photorealism. To
avoid expensive and strenuous dataset collection and annotations, researchers
have inclined towards computer-generated datasets. Although, a lack of
photorealism and a limited amount of computer-aided data, has bounded the
accuracy of network predictions.
To this end, we present WorldGen -- an open source framework to autonomously
generate countless structured and unstructured 3D photorealistic scenes such as
city view, object collection, and object fragmentation along with its rich
ground truth annotation data. WorldGen being a generative model gives the user
full access and control to features such as texture, object structure, motion,
camera and lens properties for better generalizability by diminishing the data
bias in the network. We demonstrate the effectiveness of WorldGen by presenting
an evaluation on deep optical flow. We hope such a tool can open doors for
future research in a myriad of domains related to robotics and computer vision
by reducing manual labor and the cost of acquiring rich and high-quality data.
- Abstract(参考訳): ディープラーニングの時代において、データはニューラルネットワークモデルの性能の重要な決定要因である。
大規模なデータセットの生成は、スケーラビリティ、コスト効率、フォトリアリズムなど、さまざまな困難に苦しむ。
高価で厳しいデータセットの収集とアノテーションを避けるため、研究者はコンピュータ生成データセットに傾倒している。
しかし、フォトリアリズムの欠如とコンピュータ支援データ量の制限により、ネットワーク予測の精度は制限されている。
この目的のために、WorldGen - 都市ビュー、オブジェクトコレクション、オブジェクトフラグメンテーションなどの無数の構造化および非構造化の3D写真リアリスティックシーンを、そのリッチな地上真実アノテーションデータとともに自律的に生成するオープンソースフレームワークを提供する。
WorldGenはジェネレーティブモデルであり、ユーザがテクスチャ、オブジェクト構造、モーション、カメラ、レンズ特性などの機能にフルアクセスし、ネットワーク内のデータバイアスを減らし、より一般化性を高める。
我々は,深部光学的流れの評価を行い,WorldGenの有効性を実証する。
このようなツールが、手作業の削減と、リッチで高品質なデータ取得コストの削減によって、ロボット工学やコンピュータビジョンに関連する無数の分野における将来の研究の扉を開くことを願っています。
関連論文リスト
- Synthetica: Large Scale Synthetic Data for Robot Perception [21.415878105900187]
本稿では,ロバストな状態推定器を訓練するための大規模合成データ生成手法であるSyntheticaを提案する。
本稿では,ほとんどの状態推定問題のフロントエンドとして機能する重要な問題であるオブジェクト検出の課題に焦点を当てる。
レイトレーシングのデータを利用して270万の画像を生成し、高精度なリアルタイム検出変換器を訓練する。
我々は,従来のSOTAの9倍の50-100Hzの検出器を動作させながら,物体検出タスクにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-28T15:50:56Z) - Towards Realistic Data Generation for Real-World Super-Resolution [58.99206459754721]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - Bridging the Gap to Real-World Object-Centric Learning [66.55867830853803]
自己教師付き方法で訓練されたモデルから特徴を再構成することは、完全に教師なしの方法でオブジェクト中心表現が生じるための十分な訓練信号であることを示す。
我々のアプローチであるDINOSAURは、シミュレーションデータ上で既存のオブジェクト中心学習モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-09-29T15:24:47Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - Hands-Up: Leveraging Synthetic Data for Hands-On-Wheel Detection [0.38233569758620045]
この研究は、ドライバモニタリングシステムのトレーニングに合成フォトリアリスティックインキャビンデータを使用することを実証する。
プラットフォームでエラー解析を行い、欠落したエッジケースを生成することで、パフォーマンスが向上することを示す。
これは、人間中心の合成データが現実世界にうまく一般化する能力を示している。
論文 参考訳(メタデータ) (2022-05-31T23:34:12Z) - Kubric: A scalable dataset generator [73.78485189435729]
KubricはPythonフレームワークで、PyBulletやBlenderとインターフェースして写真リアリスティックなシーンを生成する。
本研究では,3次元NeRFモデルの研究から光フロー推定まで,13種類の異なるデータセットを提示することで,Kubricの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-07T18:13:59Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - On The State of Data In Computer Vision: Human Annotations Remain
Indispensable for Developing Deep Learning Models [0.0]
高品質ラベル付きデータセットは機械学習(ML)の発展に重要な役割を果たす
2012年にImageNetデータセットとAlexNetモデルが登場して以来、新しいオープンソースのラベル付きビジョンデータセットのサイズはほぼ一定である。
コンピュータビジョンコミュニティの少数の出版物は、Imagenetよりも桁違いの大きさのデータセットの教師付き学習に取り組む。
論文 参考訳(メタデータ) (2021-07-31T00:08:21Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - UnrealROX+: An Improved Tool for Acquiring Synthetic Data from Virtual
3D Environments [14.453602631430508]
ロボット画像から合成データを生成するためのツールであるUnrealROXの改良版を紹介します。
UnrealROX+には、Deep Learningフレームワークから仮想環境と対話するalbedoやPython APIを生成する、といった新機能が含まれている。
論文 参考訳(メタデータ) (2021-04-23T18:45:42Z) - Methodology for Building Synthetic Datasets with Virtual Humans [1.5556923898855324]
大規模なデータセットは、ディープニューラルネットワークの改善、ターゲットトレーニングに使用することができる。
特に,100の合成IDからなるデータセットにまたがる複数の2次元画像のレンダリングに3次元形態素顔モデルを用いる。
論文 参考訳(メタデータ) (2020-06-21T10:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。