論文の概要: SVIRO: Synthetic Vehicle Interior Rear Seat Occupancy Dataset and
Benchmark
- arxiv url: http://arxiv.org/abs/2001.03483v1
- Date: Fri, 10 Jan 2020 14:44:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-12 23:14:17.503016
- Title: SVIRO: Synthetic Vehicle Interior Rear Seat Occupancy Dataset and
Benchmark
- Title(参考訳): sviro: 合成自動車内装後部座席占有データとベンチマーク
- Authors: Steve Dias Da Cruz, Oliver Wasenm\"uller, Hans-Peter Beise, Thomas
Stifter, Didier Stricker
- Abstract要約: SVIROは10台の異なる車両の旅客室におけるシーンの合成データセットである。
限られたバリエーションに基づいて学習した際の一般化能力と信頼性について、機械学習に基づくアプローチを解析する。
- 参考スコア(独自算出の注目度): 11.101588888002045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We release SVIRO, a synthetic dataset for sceneries in the passenger
compartment of ten different vehicles, in order to analyze machine
learning-based approaches for their generalization capacities and reliability
when trained on a limited number of variations (e.g. identical backgrounds and
textures, few instances per class). This is in contrast to the intrinsically
high variability of common benchmark datasets, which focus on improving the
state-of-the-art of general tasks. Our dataset contains bounding boxes for
object detection, instance segmentation masks, keypoints for pose estimation
and depth images for each synthetic scenery as well as images for each
individual seat for classification. The advantage of our use-case is twofold:
The proximity to a realistic application to benchmark new approaches under
novel circumstances while reducing the complexity to a more tractable
environment, such that applications and theoretical questions can be tested on
a more challenging dataset as toy problems. The data and evaluation server are
available under https://sviro.kl.dfki.de.
- Abstract(参考訳): SVIROは、10台の異なる車両の旅客室における風景の合成データセットであり、限られたバリエーション(例えば、同じ背景やテクスチャ、クラスごとのインスタンス数)で訓練された場合、一般化能力と信頼性に関する機械学習ベースのアプローチを分析する。
これは、一般的なタスクの最先端の改善に焦点を当てた、共通ベンチマークデータセットの本質的に高い変動性とは対照的である。
我々のデータセットは、オブジェクト検出のためのバウンディングボックス、インスタンスセグメンテーションマスク、各合成シーンのポーズ推定と深度画像のキーポイント、および各座席の分類用画像を含む。
我々のユースケースの利点は2つある: 新しい状況下で新しいアプローチをベンチマークするための現実的なアプリケーションに近づきつつ、複雑さをよりトラクタブルな環境に減らし、アプリケーションや理論的疑問をおもちゃの問題としてより困難なデータセット上でテストすることができる。
データと評価サーバはhttps://sviro.kl.dfki.de.comで入手できる。
関連論文リスト
- Para-Lane: Multi-Lane Dataset Registering Parallel Scans for Benchmarking Novel View Synthesis [5.281171924360707]
実世界のスキャンから得られた新しい駆動ビューデータセットに対して,並列スキャンを登録する最初のマルチレーンデータセットを提案する。
データセットは、16,000のフロントビューイメージ、64,000のサラウンドビューイメージ、16,000のLiDARフレームを含む、25の関連するシーケンスからなる。
異なる車線, 距離の異なる様々なテストシナリオにおいて, 既存手法の性能を評価する。
論文 参考訳(メタデータ) (2025-02-21T18:03:56Z) - Alice Benchmarks: Connecting Real World Re-Identification with the
Synthetic [92.02220105679713]
我々は、Aliceベンチマーク、大規模データセット、ベンチマークおよび評価プロトコルを研究コミュニティに導入する。
Aliceベンチマークでは、人と車の2つのre-IDタスクが提供されている。
実際のターゲットの重要な特徴として、トレーニングセットのクラスタビリティは、実際のドメイン適応テストシナリオに近づくように手動で保証されない。
論文 参考訳(メタデータ) (2023-10-06T17:58:26Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Persistent Homology Meets Object Unity: Object Recognition in Clutter [2.356908851188234]
見えない屋内環境における隠蔽物体の認識は、移動ロボットにとって難しい問題である。
本稿では,深度画像から生成された点雲のための新しい記述子TOPSと,人間の推論にインスパイアされた認識フレームワークTHORを提案する。
THORは両方のデータセットで最先端の手法より優れており、UW-IS Occludedデータセットのすべてのシナリオに対する認識精度が大幅に向上している。
論文 参考訳(メタデータ) (2023-05-05T19:42:39Z) - CrowdSim2: an Open Synthetic Benchmark for Object Detectors [0.7223361655030193]
本稿では,人や車両検出に適した画像の合成コレクションであるCrowdSim2を公開・公開する。
それは、現実世界に似た様々な合成シナリオから集められた何千もの画像で構成されており、興味のある要素は様々である。
我々は、この新しいベンチマークを最先端の検出器のテストグラウンドとして利用し、シミュレートされたシナリオが、制御された環境でのパフォーマンスを測定する貴重なツールであることを示した。
論文 参考訳(メタデータ) (2023-04-11T09:35:57Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - Neural-Sim: Learning to Generate Training Data with NeRF [31.81496344354997]
本稿では,ニューラルレージアンスフィールド(NeRF)を対象アプリケーションの損失関数を持つ閉ループに使用した,最初の完全微分可能な合成データパイプラインを提案する。
提案手法は,人的負担を伴わないオンデマンドでデータを生成し,目標タスクの精度を最大化する。
論文 参考訳(メタデータ) (2022-07-22T22:48:33Z) - StandardSim: A Synthetic Dataset For Retail Environments [0.07874708385247352]
本稿では,意味的セグメンテーション,インスタンスセグメンテーション,深さ推定,オブジェクト検出のためのアノテーションを特徴とする大規模合成データセットを提案する。
私たちのデータセットはシーン毎に複数のビューを提供し、マルチビュー表現学習を可能にします。
我々は、データセットのセグメンテーションと深さ推定に広く使用されているモデルをベンチマークし、我々のテストセットが現在の小規模データセットと比較して難しいベンチマークを構成することを示す。
論文 参考訳(メタデータ) (2022-02-04T22:28:35Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - PyraPose: Feature Pyramids for Fast and Accurate Object Pose Estimation
under Domain Shift [26.037061005620263]
我々は、エンコーダデコーダネットワークではなく、パッチベースのアプローチの方が、合成から現実への転送に適していると論じる。
本稿では、ポーズ仮説を作成するための多スケール特徴量を計算するための、特殊な特徴ピラミッドネットワークに基づく新しいアプローチを提案する。
我々の単発ポーズ推定アプローチは、複数の標準データセットで評価され、アートの状態を最大35%向上させる。
論文 参考訳(メタデータ) (2020-10-30T08:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。