論文の概要: DIOR: Dataset for Indoor-Outdoor Reidentification -- Long Range 3D/2D
Skeleton Gait Collection Pipeline, Semi-Automated Gait Keypoint Labeling and
Baseline Evaluation Methods
- arxiv url: http://arxiv.org/abs/2309.12429v1
- Date: Thu, 21 Sep 2023 18:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 17:00:57.530547
- Title: DIOR: Dataset for Indoor-Outdoor Reidentification -- Long Range 3D/2D
Skeleton Gait Collection Pipeline, Semi-Automated Gait Keypoint Labeling and
Baseline Evaluation Methods
- Title(参考訳): DIOR: 屋内再同定のためのデータセット -- 長距離3D/2D 歩行収集パイプライン、半自動歩行キーポイントラベルおよびベースライン評価方法
- Authors: Yuyang Chen, Praveen Raj Masilamani, Bhavin Jawade, Srirangaraj
Setlur, Karthik Dantu
- Abstract要約: 本稿では,データ収集と半自動アノテーションのためのフレームワークであるDIORを紹介し,14の被験者と1.649万のRGBフレームと3D/2Dスケルトン歩行ラベルを備えたデータセットを提供する。
我々は,RGBフレーム内の20-25ピクセルに制限された場合であっても,遠方の被験者に対して正確なスケルトンラベリングを実現することに成功した。
- 参考スコア(独自算出の注目度): 8.265408202637857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent times, there is an increased interest in the identification and
re-identification of people at long distances, such as from rooftop cameras,
UAV cameras, street cams, and others. Such recognition needs to go beyond face
and use whole-body markers such as gait. However, datasets to train and test
such recognition algorithms are not widely prevalent, and fewer are labeled.
This paper introduces DIOR -- a framework for data collection, semi-automated
annotation, and also provides a dataset with 14 subjects and 1.649 million RGB
frames with 3D/2D skeleton gait labels, including 200 thousands frames from a
long range camera. Our approach leverages advanced 3D computer vision
techniques to attain pixel-level accuracy in indoor settings with motion
capture systems. Additionally, for outdoor long-range settings, we remove the
dependency on motion capture systems and adopt a low-cost, hybrid 3D computer
vision and learning pipeline with only 4 low-cost RGB cameras, successfully
achieving precise skeleton labeling on far-away subjects, even when their
height is limited to a mere 20-25 pixels within an RGB frame. On publication,
we will make our pipeline open for others to use.
- Abstract(参考訳): 近年では、屋上カメラ、UAVカメラ、街路カメラなど、遠距離の人々の識別と再識別への関心が高まっている。
このような認識は顔を超えて、歩行のような全身マーカーを使用する必要がある。
しかし、そのような認識アルゴリズムを訓練し、テストするデータセットは広く普及せず、ラベル付けされることも少ない。
本稿では、データ収集、半自動アノテーションのためのフレームワークであるDIORを紹介し、14の被験者と1.649万のRGBフレームと3D/2Dスケルトン歩行ラベルを備えたデータセットを提供する。
本手法は3次元コンピュータビジョン技術を利用して,モーションキャプチャシステムを用いた室内環境における画素レベルの精度を実現する。
さらに、屋外の長距離環境では、モーションキャプチャシステムへの依存を取り除き、低コストでハイブリッドな3Dコンピュータビジョンと学習パイプラインを4台のRGBカメラで採用し、RGBフレーム内のわずか20-25ピクセルに制限された場合であっても、遠方の被験者に正確なスケルトンラベルを付けることに成功した。
公開時には、他の人が利用できるようにパイプラインをオープンにします。
関連論文リスト
- Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Digital Twin Tracking Dataset (DTTD): A New RGB+Depth 3D Dataset for
Longer-Range Object Tracking Applications [3.9776693020673677]
デジタルツイン(Digital twin)は、実際のオブジェクトをデジタルオブジェクトで拡張する問題である。
優れたデジタルツインシステムにおける重要なコンポーネントは、リアルタイムで正確な3Dオブジェクト追跡である。
この研究で、Digital Twin Tracking dataset(DTTD)と呼ばれる新しいRGB-Dデータセットを作成します。
論文 参考訳(メタデータ) (2023-02-12T20:06:07Z) - LidarGait: Benchmarking 3D Gait Recognition with Point Clouds [18.22238384814974]
この研究は、ポイントクラウドからの正確な3D歩行機能を探究し、シンプルだが効率的な3D歩行認識フレームワークであるLidarGaitを提案する。
提案手法は,3次元幾何情報を用いた表現学習のために,点雲を深度マップに分割する手法である。
ポイントクラウドデータセットが不足しているため、私たちは最初の大規模LiDARベースの歩行認識データセットであるSUSTech1Kを構築しました。
論文 参考訳(メタデータ) (2022-11-19T06:23:08Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Multi-modal 3D Human Pose Estimation with 2D Weak Supervision in
Autonomous Driving [74.74519047735916]
自動運転車(AV)における3次元ポーズ推定(HPE)は,多くの要因において他のユースケースと異なる。
他のユースケース(仮想現実、ゲーム、アニメーションなど)のために収集されたデータは、AVアプリケーションには使用できない可能性がある。
本稿では,この問題をAV設定で緩和するための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:57:16Z) - Pedestrian Detection in 3D Point Clouds using Deep Neural Networks [2.6763498831034034]
密集した3dポイントクラウド内の歩行者を検出するためのpointnet++アーキテクチャを提案する。
目的は、歩行者検出システムにおける幾何学的情報のみの潜在的な貢献を検討することである。
また,rgb画像から歩行者および非ペデストリアンラベルを3dドメインに転送するセミオートマチックラベルシステムを提案する。
論文 参考訳(メタデータ) (2021-05-03T20:12:11Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z) - JRMOT: A Real-Time 3D Multi-Object Tracker and a New Large-Scale Dataset [34.609125601292]
我々は,RGB画像と3Dポイントクラウドの情報を統合し,リアルタイムトラッキング性能を実現する新しい3DMOTシステムJRMOTを提案する。
我々の研究の一環として、新しい大規模2D+3DデータセットとベンチマークであるJRDBデータセットをリリースしました。
提案する3D MOTシステムは,一般的な2DトラッキングKITTIベンチマークにおいて,競合する手法に対する最先端性能を示す。
論文 参考訳(メタデータ) (2020-02-19T19:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。