論文の概要: DFKI Cabin Simulator: A Test Platform for Visual In-Cabin Monitoring
Functions
- arxiv url: http://arxiv.org/abs/2002.03749v2
- Date: Tue, 11 Feb 2020 12:27:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:06:27.585974
- Title: DFKI Cabin Simulator: A Test Platform for Visual In-Cabin Monitoring
Functions
- Title(参考訳): DFKI Cabin Simulator:Visual In-Cabinモニタリング機能のテストプラットフォーム
- Authors: Hartmut Feld, Bruno Mirbach, Jigyasa Katrolia, Mohamed Selim, Oliver
Wasenm\"uller, Didier Stricker
- Abstract要約: このテストプラットフォームはDFKIが開発した運転シミュレータに基づいている。
車両のモックアップ全体を監視する広角2D/3Dカメラシステムを備えている。
- 参考スコア(独自算出の注目度): 9.79973930235949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a test platform for visual in-cabin scene analysis and occupant
monitoring functions. The test platform is based on a driving simulator
developed at the DFKI, consisting of a realistic in-cabin mock-up and a
wide-angle projection system for a realistic driving experience. The platform
has been equipped with a wide-angle 2D/3D camera system monitoring the entire
interior of the vehicle mock-up of the simulator. It is also supplemented with
a ground truth reference sensor system that allows to track and record the
occupant's body movements synchronously with the 2D and 3D video streams of the
camera. Thus, the resulting test platform will serve as a basis to validate
numerous in-cabin monitoring functions, which are important for the realization
of novel human-vehicle interfaces, advanced driver assistant systems, and
automated driving. Among the considered functions are occupant presence
detection, size and 3D-pose estimation and driver intention recognition. In
addition, our platform will be the basis for the creation of large-scale
in-cabin benchmark datasets.
- Abstract(参考訳): 本稿では,視覚的シーン分析と占有監視機能のためのテストプラットフォームを提案する。
テストプラットフォームはdfkiで開発された運転シミュレータに基づいており、リアルなインカビンモックアップとリアルな運転体験のための広角投影システムで構成されている。
プラットフォームには広角2D/3Dカメラシステムが搭載されており、シミュレータのモックアップ全体を監視している。
また、カメラの2Dおよび3Dビデオストリームと同期して乗員の身体の動きを追跡し記録できる地上の真実参照センサシステムも付属している。
このようにして得られたテストプラットフォームは、新しい車載インタフェース、高度なドライバーアシスタントシステム、自動運転の実現に重要な多数のインカビン監視機能を検証する基盤となる。
考慮される機能には、占有者の存在検出、サイズ、および3d-pose推定、運転意図認識がある。
さらに、当社のプラットフォームは、大規模なインキャビンベンチマークデータセットの作成の基礎となるでしょう。
関連論文リスト
- HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera [10.573423265001706]
本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
オブジェクトボックスとSPLを併用した共同制約損失はモデルトレーニング時に設計され、モデルの効率、安定性、予測精度が向上する。
論文 参考訳(メタデータ) (2023-09-15T12:50:09Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Urban Traffic Surveillance (UTS): A fully probabilistic 3D tracking
approach based on 2D detections [11.34426502082293]
都市交通監視(Urban Traffic Surveillance、UTS)は、モノクロカメラとキャリブレーションカメラをベースとした監視システムである。
UTSは3Dバウンディングボックス表現と物理的に合理的な3Dモーションモデルを用いて車両を追跡している。
論文 参考訳(メタデータ) (2021-05-31T14:29:02Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。