論文の概要: CrowdSim2: an Open Synthetic Benchmark for Object Detectors
- arxiv url: http://arxiv.org/abs/2304.05090v1
- Date: Tue, 11 Apr 2023 09:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 15:30:00.014987
- Title: CrowdSim2: an Open Synthetic Benchmark for Object Detectors
- Title(参考訳): CrowdSim2:オブジェクト検出のためのオープンシンセティックベンチマーク
- Authors: Pawe{\l} Foszner, Agnieszka Szcz\k{e}sna, Luca Ciampi, Nicola Messina,
Adam Cygan, Bartosz Bizo\'n, Micha{\l} Cogiel, Dominik Golba, El\.zbieta
Macioszek, Micha{\l} Staniszewski
- Abstract要約: 本稿では,人や車両検出に適した画像の合成コレクションであるCrowdSim2を公開・公開する。
それは、現実世界に似た様々な合成シナリオから集められた何千もの画像で構成されており、興味のある要素は様々である。
我々は、この新しいベンチマークを最先端の検出器のテストグラウンドとして利用し、シミュレートされたシナリオが、制御された環境でのパフォーマンスを測定する貴重なツールであることを示した。
- 参考スコア(独自算出の注目度): 0.7223361655030193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data scarcity has become one of the main obstacles to developing supervised
models based on Artificial Intelligence in Computer Vision. Indeed, Deep
Learning-based models systematically struggle when applied in new scenarios
never seen during training and may not be adequately tested in non-ordinary yet
crucial real-world situations. This paper presents and publicly releases
CrowdSim2, a new synthetic collection of images suitable for people and vehicle
detection gathered from a simulator based on the Unity graphical engine. It
consists of thousands of images gathered from various synthetic scenarios
resembling the real world, where we varied some factors of interest, such as
the weather conditions and the number of objects in the scenes. The labels are
automatically collected and consist of bounding boxes that precisely localize
objects belonging to the two object classes, leaving out humans from the
annotation pipeline. We exploited this new benchmark as a testing ground for
some state-of-the-art detectors, showing that our simulated scenarios can be a
valuable tool for measuring their performances in a controlled environment.
- Abstract(参考訳): データ不足は、コンピュータビジョンにおける人工知能に基づく教師付きモデルの開発における主要な障害の1つになっている。
実際、ディープラーニングベースのモデルは、トレーニング中に見たことのない新しいシナリオに適用された場合、体系的に苦労する。
本稿では,人に適した画像の新たな合成コレクションであるCrowdSim2を,Unityグラフィカルエンジンをベースとしたシミュレータから収集した車両検出を行う。
現実に類似した様々な合成シナリオから収集された何千もの画像で構成されており、天気条件やシーン内の物体の数など、興味のある要素も様々である。
ラベルは自動的に収集され、2つのオブジェクトクラスに属するオブジェクトを正確にローカライズするバウンディングボックスで構成され、アノテーションパイプラインから人間を除外する。
私たちはこのベンチマークを最先端の検出器のテスト基盤として活用し、シミュレーションされたシナリオが制御された環境でのパフォーマンスを測定する上で有用なツールであることを示しました。
関連論文リスト
- Exploring Generative AI for Sim2Real in Driving Data Synthesis [6.769182994217369]
ドライビングシミュレータは、対応するアノテーションで様々なドライビングシナリオを自動的に生成するソリューションを提供するが、シミュレーションとリアリティ(Sim2Real)ドメインギャップは依然として課題である。
本稿では,現実的なデータセット作成のためのブリッジとして,運転シミュレータからのセマンティックラベルマップを活用するために,3つの異なる生成AI手法を適用した。
実験の結果,手動のアノテートラベルが提供されると,GANベースの手法は高品質な画像を生成するには適しているが,ControlNetは,シミュレータ生成ラベルを使用すると,より少ないアーティファクトとより構造的忠実度を持つ合成データセットを生成することがわかった。
論文 参考訳(メタデータ) (2024-04-14T01:23:19Z) - Reconstructing Objects in-the-wild for Realistic Sensor Simulation [41.55571880832957]
我々は,スパース・イン・ザ・ワイルドデータから正確な幾何学的および現実的な外観を推定する新しい手法であるNeuSimを提案する。
物体の外観を物理にインスパイアされた頑健な反射率表現でモデル化し,実測データに有効である。
実験の結果,NeuSimはスパース・トレーニング・ビューを持つ難解なシナリオに対して,強力なビュー合成性能を有することがわかった。
論文 参考訳(メタデータ) (2023-11-09T18:58:22Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Predicting Stable Configurations for Semantic Placement of Novel Objects [37.18437299513799]
我々のゴールは、新しい環境における学習された意味的関係に従って、ロボットが未確認の物体を配置できるようにすることである。
我々は、未知のオブジェクトのセマンティック配置のための計画アルゴリズムと密に統合するために、モデルとトレーニングをゼロから構築する。
提案手法は,RGB-Dセンシングのみによる形状の異なるシーンにおける未知物体のセマンティック・アレンジメントのための動作計画を可能にする。
論文 参考訳(メタデータ) (2021-08-26T23:05:05Z) - Small Object Detection for Near Real-Time Egocentric Perception in a
Manual Assembly Scenario [0.0]
手動組立シナリオにおける自我中心認識のための,ほぼリアルタイムな小型物体検出パイプラインについて述べる。
まず、コンテキストが認識され、その後、関心の小さなオブジェクトが検出される。
拡張現実デバイスであるMicrosoft Hololens 2.0のパイプラインを評価した。
論文 参考訳(メタデータ) (2021-06-11T13:59:44Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z) - SVIRO: Synthetic Vehicle Interior Rear Seat Occupancy Dataset and
Benchmark [11.101588888002045]
SVIROは10台の異なる車両の旅客室におけるシーンの合成データセットである。
限られたバリエーションに基づいて学習した際の一般化能力と信頼性について、機械学習に基づくアプローチを解析する。
論文 参考訳(メタデータ) (2020-01-10T14:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。