論文の概要: SynPick: A Dataset for Dynamic Bin Picking Scene Understanding
- arxiv url: http://arxiv.org/abs/2107.04852v1
- Date: Sat, 10 Jul 2021 14:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 07:35:45.102630
- Title: SynPick: A Dataset for Dynamic Bin Picking Scene Understanding
- Title(参考訳): SynPick: 動的ビンピッキングシーン理解のためのデータセット
- Authors: Arul Selvam Periyasamy, Max Schwarz, and Sven Behnke
- Abstract要約: ビンピッキングシナリオにおける動的シーン理解のための合成データセットであるSynPickを提案する。
既存のデータセットとは対照的に、私たちのデータセットはどちらも現実的な産業アプリケーションドメイン内にあります。
データセットは人気のあるBOPデータセットフォーマットと互換性がある。
- 参考スコア(独自算出の注目度): 25.706613724135046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present SynPick, a synthetic dataset for dynamic scene understanding in
bin-picking scenarios. In contrast to existing datasets, our dataset is both
situated in a realistic industrial application domain -- inspired by the
well-known Amazon Robotics Challenge (ARC) -- and features dynamic scenes with
authentic picking actions as chosen by our picking heuristic developed for the
ARC 2017. The dataset is compatible with the popular BOP dataset format. We
describe the dataset generation process in detail, including object arrangement
generation and manipulation simulation using the NVIDIA PhysX physics engine.
To cover a large action space, we perform untargeted and targeted picking
actions, as well as random moving actions. To establish a baseline for object
perception, a state-of-the-art pose estimation approach is evaluated on the
dataset. We demonstrate the usefulness of tracking poses during manipulation
instead of single-shot estimation even with a naive filtering approach. The
generator source code and dataset are publicly available.
- Abstract(参考訳): ビンピッキングシナリオにおける動的シーン理解のための合成データセットであるSynPickを提案する。
既存のデータセットとは対照的に、私たちのデータセットは、よく知られたAmazon Robotics Challenge(ARC)にインスパイアされた、現実的な産業用アプリケーションドメインにあり、ARC 2017のために開発されたピッキングヒューリスティックによって選択された、真のピッキングアクションを備えた動的シーンを備えています。
データセットは人気のあるBOPデータセットフォーマットと互換性がある。
本稿では、NVIDIA PhysX物理エンジンを用いたオブジェクト配置生成と操作シミュレーションを含むデータセット生成プロセスについて詳述する。
大きなアクションスペースをカバーするために、ターゲットとターゲットを絞ったピッキングアクションとランダムな移動アクションを実行します。
オブジェクト認識のためのベースラインを確立するために、データセット上で最先端のポーズ推定手法を評価する。
単純なフィルタリング手法であっても、単発推定ではなく、操作中のトラッキングポーズの有用性を実証する。
ジェネレータのソースコードとデータセットが公開されている。
関連論文リスト
- OmniPose6D: Towards Short-Term Object Pose Tracking in Dynamic Scenes from Monocular RGB [40.62577054196799]
実環境の多様性を反映した大規模合成データセットOmniPose6Dを提案する。
本稿では,ポーズ追跡アルゴリズムの総合的な比較のためのベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T09:01:40Z) - TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成データと実世界データとの領域ギャップを埋める新しい手法を提案する。
私たちの定式化は、小さな動く物体や人間の行動からなる動的なシーンのために設計されています。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - VALERIE22 -- A photorealistic, richly metadata annotated dataset of
urban environments [5.439020425819001]
VALERIEツールパイプラインは、ドメイン固有の要素の理解に寄与するために開発された合成データジェネレータである。
VALERIE22データセットは、フォトリアリスティックセンサーシミュレーションを提供するVALERIEプロシージャツールパイプラインで生成された。
データセットは独自のリッチなメタデータセットを提供し、特定のシーンとセマンティックな特徴の抽出を可能にする。
論文 参考訳(メタデータ) (2023-08-18T15:44:45Z) - SynTable: A Synthetic Data Generation Pipeline for Unseen Object Amodal
Instance Segmentation of Cluttered Tabletop Scenes [2.8661021832561757]
我々はNVIDIAのIsaac Sim Replicator Composerを使って構築されたPythonベースのデータセットジェネレータであるSynTableを紹介する。
私たちのデータセット生成ツールは、オブジェクトメッシュ、材料、テクスチャ、照明、背景を含む複雑な3Dシーンをレンダリングすることができます。
レイトレーシングによりSynTableを用いて生成されたサンプルデータセットを用いて、最先端モデルであるUOAIS-Netのトレーニングを行う。
論文 参考訳(メタデータ) (2023-07-14T13:24:42Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Neural-Sim: Learning to Generate Training Data with NeRF [31.81496344354997]
本稿では,ニューラルレージアンスフィールド(NeRF)を対象アプリケーションの損失関数を持つ閉ループに使用した,最初の完全微分可能な合成データパイプラインを提案する。
提案手法は,人的負担を伴わないオンデマンドでデータを生成し,目標タスクの精度を最大化する。
論文 参考訳(メタデータ) (2022-07-22T22:48:33Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Meta-Sim2: Unsupervised Learning of Scene Structure for Synthetic Data
Generation [88.04759848307687]
Meta-Sim2では,パラメータに加えてシーン構造を学習することを目指している。
強化学習(Reinforcement Learning)を使用してモデルをトレーニングし、トレーニング成功の鍵となる合成画像とターゲット画像の間に特徴空間のばらつきを設計する。
また,この手法は,他のベースラインシミュレーション手法と対照的に,生成したデータセット上でトレーニングしたオブジェクト検出器の性能を下流で向上させることを示す。
論文 参考訳(メタデータ) (2020-08-20T17:28:45Z) - Detection and Segmentation of Custom Objects using High Distraction
Photorealistic Synthetic Data [0.5076419064097732]
合成データを用いてインスタンスセグメンテーションを行うための簡便で有用な手法を示す。
目標は、カスタムオブジェクトの実際のデータを手動で収集し、注釈付けすることで、高いパフォーマンスを達成することである。
このホワイトペーパーは、光実写シミュレーションデータが現実の応用に利用できるという強い証拠を提供する。
論文 参考訳(メタデータ) (2020-07-28T16:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。