論文の概要: GDTM: An Indoor Geospatial Tracking Dataset with Distributed Multimodal
Sensors
- arxiv url: http://arxiv.org/abs/2402.14136v1
- Date: Wed, 21 Feb 2024 21:24:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 17:13:35.115450
- Title: GDTM: An Indoor Geospatial Tracking Dataset with Distributed Multimodal
Sensors
- Title(参考訳): GDTM:分散マルチモーダルセンサを用いた屋内地理空間追跡データセット
- Authors: Ho Lyun Jeong, Ziqi Wang, Colin Samplawski, Jason Wu, Shiwei Fang,
Lance M. Kaplan, Deepak Ganesan, Benjamin Marlin, Mani Srivastava
- Abstract要約: GDTMは、分散マルチモーダルセンサと再構成可能なセンサノード配置を備えた、マルチモーダルオブジェクトトラッキングのための9時間のデータセットである。
我々のデータセットは、マルチモーダルデータ処理のためのアーキテクチャの最適化など、いくつかの研究課題の探索を可能にする。
- 参考スコア(独自算出の注目度): 9.8714071146137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Constantly locating moving objects, i.e., geospatial tracking, is essential
for autonomous building infrastructure. Accurate and robust geospatial tracking
often leverages multimodal sensor fusion algorithms, which require large
datasets with time-aligned, synchronized data from various sensor types.
However, such datasets are not readily available. Hence, we propose GDTM, a
nine-hour dataset for multimodal object tracking with distributed multimodal
sensors and reconfigurable sensor node placements. Our dataset enables the
exploration of several research problems, such as optimizing architectures for
processing multimodal data, and investigating models' robustness to adverse
sensing conditions and sensor placement variances. A GitHub repository
containing the code, sample data, and checkpoints of this work is available at
https://github.com/nesl/GDTM.
- Abstract(参考訳): 移動物体、すなわち地理空間追跡は、自律的な建築インフラにとって不可欠である。
高精度でロバストな地理空間追跡は、様々なセンサタイプからタイムアラインな同期データを必要とする大規模なデータセットを必要とするマルチモーダルセンサフュージョンアルゴリズムを利用することが多い。
しかし、そのようなデータセットは簡単には利用できない。
そこで本研究では,分散マルチモーダルセンサと再構成可能なセンサノード配置を用いた,多モーダル物体追跡のための9時間データセットGDTMを提案する。
このデータセットは,マルチモーダルデータの処理のためのアーキテクチャの最適化や,モデルのロバスト性の調査など,いくつかの研究課題の探索を可能にする。
この作業のコード、サンプルデータ、チェックポイントを含むGitHubリポジトリはhttps://github.com/nesl/GDTMで公開されている。
関連論文リスト
- Fully-Connected Spatial-Temporal Graph for Multivariate Time-Series Data [50.84488941336865]
完全時空間グラフニューラルネットワーク(FC-STGNN)という新しい手法を提案する。
グラフ構築のために、時間的距離に基づいて、すべてのタイムスタンプにセンサーを接続する減衰グラフを設計する。
グラフ畳み込みのために,移動プールGNN層を用いたFCグラフ畳み込みを考案し,ST依存性を効果的に把握し,効率的な表現を学習する。
論文 参考訳(メタデータ) (2023-09-11T08:44:07Z) - The LuViRA Dataset: Measurement Description [53.35153095302381]
このデータセットには、Lund University Vision、Radio、Audio(LuViRA)データセットという、視覚、オーディオ、ラジオセンサーが含まれている。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーを融合させる研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - Shared Manifold Learning Using a Triplet Network for Multiple Sensor
Translation and Fusion with Missing Data [2.452410403088629]
コントラスト学習に基づくマルチモーダルアライメントネットワーク(CoMMANet)を提案する。
提案アーキテクチャでは,マルチモーダルな三重項オートエンコーダを用いて,各不均一なモジュラリティの同一クラスのサンプルが互いに近接してマッピングされるように潜在空間をクラスタリングする。
論文 参考訳(メタデータ) (2022-10-25T20:22:09Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - The Hilti SLAM Challenge Dataset [41.091844019181735]
構築環境は、同時局所化とマッピング(SLAM)アルゴリズムに難しい問題を引き起こす。
本研究を支援するために,Hilti SLAM Challengeデータセットという新しいデータセットを提案する。
各データセットには正確な基底真理が含まれており、SLAM結果を直接テストすることができる。
論文 参考訳(メタデータ) (2021-09-23T12:02:40Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z) - SpaceNet 6: Multi-Sensor All Weather Mapping Dataset [13.715388432549373]
オープンなMulti-Sensor All Weather Mapping (MSAW)データセットと課題について述べる。
MSAWは複数の重なり合う集合体を120 km2で覆っており、48,000以上のユニークな建物フットプリントラベルがアノテートされている。
我々は,SARデータを用いた足跡抽出のためのベースラインとベンチマークを提案し,光学データに基づいて事前訓練された最先端セグメンテーションモデルを発見し,SARで訓練した。
論文 参考訳(メタデータ) (2020-04-14T13:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。