論文の概要: Learning-Based Human Segmentation and Velocity Estimation Using
Automatic Labeled LiDAR Sequence for Training
- arxiv url: http://arxiv.org/abs/2003.05093v1
- Date: Wed, 11 Mar 2020 03:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:40:56.963471
- Title: Learning-Based Human Segmentation and Velocity Estimation Using
Automatic Labeled LiDAR Sequence for Training
- Title(参考訳): 自動ラベル付きLiDARシークエンスを用いた学習型人間のセグメンテーションと速度推定
- Authors: Wonjik Kim, Masayuki Tanaka, Masatoshi Okutomi, Yoko Sasaki
- Abstract要約: 本稿では,ポイントクラウドを用いた人間認識のための自動ラベル付きシーケンシャルデータ生成パイプラインを提案する。
提案手法では, 高精度な人体モデルを用いて, 正確な動きを再現し, リアルな人工データを生成する。
- 参考スコア(独自算出の注目度): 15.19884183320726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an automatic labeled sequential data generation
pipeline for human segmentation and velocity estimation with point clouds.
Considering the impact of deep neural networks, state-of-the-art network
architectures have been proposed for human recognition using point clouds
captured by Light Detection and Ranging (LiDAR). However, one disadvantage is
that legacy datasets may only cover the image domain without providing
important label information and this limitation has disturbed the progress of
research to date. Therefore, we develop an automatic labeled sequential data
generation pipeline, in which we can control any parameter or data generation
environment with pixel-wise and per-frame ground truth segmentation and
pixel-wise velocity information for human recognition. Our approach uses a
precise human model and reproduces a precise motion to generate realistic
artificial data. We present more than 7K video sequences which consist of 32
frames generated by the proposed pipeline. With the proposed sequence
generator, we confirm that human segmentation performance is improved when
using the video domain compared to when using the image domain. We also
evaluate our data by comparing with data generated under different conditions.
In addition, we estimate pedestrian velocity with LiDAR by only utilizing data
generated by the proposed pipeline.
- Abstract(参考訳): 本稿では,点雲を用いた人間のセグメンテーションと速度推定のための自動ラベル付き逐次データ生成パイプラインを提案する。
深層ニューラルネットワークの影響を考慮すると、光検出・ランキング(LiDAR)で捉えた点雲を用いた人間の認識のための最先端のネットワークアーキテクチャが提案されている。
しかし、レガシデータセットが重要なラベル情報を提供しずにイメージドメインをカバーできるという欠点があり、この制限は研究の進歩を妨げている。
そこで我々は,画素単位とフレーム単位のグランド真理セグメンテーションと画素単位の速度情報を用いて,任意のパラメータやデータ生成環境を制御できる自動ラベル付き逐次データ生成パイプラインを開発した。
提案手法では,人間の正確なモデルを用いて正確な動きを再現し,リアルな人工データを生成する。
提案したパイプラインによって生成された32フレームからなる7Kビデオシーケンスについて述べる。
提案するシーケンスジェネレータにより,画像領域を使用する場合と比較して,映像領域を使用する場合の人間のセグメンテーション性能が向上することを確認した。
また、異なる条件下で生成されたデータと比較することで、データを評価する。
さらに,提案したパイプラインから生成されたデータのみを利用して,LiDARによる歩行者の速度を推定する。
関連論文リスト
- Domain-Transferred Synthetic Data Generation for Improving Monocular Depth Estimation [9.812476193015488]
本稿では,3次元合成環境とCycleGANドメイン転送を用いたシミュレーションデータ生成手法を提案する。
本研究では,DenseDepth構造に基づく深度推定モデルを実データと模擬データの異なるトレーニングセットを用いて学習することにより,このデータ生成手法を,人気のNYUDepth V2データセットと比較する。
本稿では,Huskyロボットによる新たに収集した画像とLiDAR深度データを用いたモデルの性能評価を行い,GAN変換データを実世界のデータ,特に深度推定の有効な代替手段として有効であることを示す。
論文 参考訳(メタデータ) (2024-05-02T09:21:10Z) - VALERIE22 -- A photorealistic, richly metadata annotated dataset of
urban environments [5.439020425819001]
VALERIEツールパイプラインは、ドメイン固有の要素の理解に寄与するために開発された合成データジェネレータである。
VALERIE22データセットは、フォトリアリスティックセンサーシミュレーションを提供するVALERIEプロシージャツールパイプラインで生成された。
データセットは独自のリッチなメタデータセットを提供し、特定のシーンとセマンティックな特徴の抽出を可能にする。
論文 参考訳(メタデータ) (2023-08-18T15:44:45Z) - Augmenting Deep Learning Adaptation for Wearable Sensor Data through
Combined Temporal-Frequency Image Encoding [4.458210211781739]
本稿では、時間領域情報と周波数領域情報をシームレスに統合した、新しい修正繰り返しプロットベースの画像表現を提案する。
加速度センサを用いた活動認識データと事前訓練されたResNetモデルを用いて提案手法の評価を行い,既存の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-03T09:29:27Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Radar Image Reconstruction from Raw ADC Data using Parametric
Variational Autoencoder with Domain Adaptation [0.0]
本研究では,パラメータ制約付き変分オートエンコーダを提案し,レンジ角画像上でクラスタ化および局所化されたターゲット検出を生成する。
実際のレーダデータを用いて可能なすべてのシナリオにおいて,提案するニューラルネットワークをトレーニングする問題を回避すべく,ドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2022-05-30T16:17:36Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Sim-to-Real Domain Adaptation for Lane Detection and Classification in
Autonomous Driving [0.0]
教師なしのドメイン適応(UDA)アプローチは低コストで時間を要すると考えられている。
自動走行における車線検出と分類のための逆判別および生成手法を用いたUDAスキームを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:10:14Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。