論文の概要: The LuViRA Dataset: Measurement Description
- arxiv url: http://arxiv.org/abs/2302.05309v1
- Date: Fri, 10 Feb 2023 15:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:34:29.976997
- Title: The LuViRA Dataset: Measurement Description
- Title(参考訳): LuViRAデータセット:測定記述
- Authors: Ilayda Yaman, Guoda Tian, Martin Larsson, Patrik Persson, Michiel
Sandra, Alexander D\"urr, Erik Tegler, Nikhil Challa, Henrik Garde, Fredrik
Tufvesson, Kalle \r{A}str\"om, Ove Edfors, Steffen Malkowsky, Liang Liu
- Abstract要約: このデータセットには、Lund University Vision、Radio、Audio(LuViRA)データセットという、視覚、オーディオ、ラジオセンサーが含まれている。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーを融合させる研究を可能にすることである。
- 参考スコア(独自算出の注目度): 53.35153095302381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a dataset to evaluate localization algorithms, which utilizes
vision, audio, and radio sensors: the Lund University Vision, Radio, and Audio
(LuViRA) Dataset. The dataset includes RGB images, corresponding depth maps,
IMU readings, channel response between a massive MIMO channel sounder and a
user equipment, audio recorded by 12 microphones, and 0.5 mm accurate 6DoF pose
ground truth. We synchronize these sensors to make sure that all data are
recorded simultaneously. A camera, speaker, and transmit antenna are placed on
top of a slowly moving service robot and 88 trajectories are recorded. Each
trajectory includes 20 to 50 seconds of recorded sensor data and ground truth
labels. The data from different sensors can be used separately or jointly to
conduct localization tasks and a motion capture system is used to verify the
results obtained by the localization algorithms. The main aim of this dataset
is to enable research on fusing the most commonly used sensors for localization
tasks. However, the full dataset or some parts of it can also be used for other
research areas such as channel estimation, image classification, etc. Fusing
sensor data can lead to increased localization accuracy and reliability, as
well as decreased latency and power consumption. The created dataset will be
made public at a later date.
- Abstract(参考訳): 本稿では,Lund University Vision, Radio, and Audio (LuViRA) Dataset という視覚, オーディオ, 無線センサを用いたローカライゼーションアルゴリズムの評価データセットを提案する。
データセットには、RGB画像、対応する深度マップ、IMU読み取り、巨大なMIMOチャネルサウンドとユーザ機器間のチャネル応答、12マイクロフォンによるオーディオ記録、0.5mm精度の6DoFの真理の合成が含まれている。
これらのセンサーを同期させて、すべてのデータが同時に記録されるようにします。
ゆっくりと動くサービスロボットの上にカメラ、スピーカ、および送信アンテナを設置し、88の軌跡を記録する。
各軌道は、記録されたセンサデータと地上の真実ラベルの20~50秒を含む。
異なるセンサからのデータを別々または共同でローカライズタスクに使用することができ、ローカライズアルゴリズムによって得られた結果を検証するためにモーションキャプチャシステムを使用する。
このデータセットの主な目的は、最も一般的に使用されるセンサをローカライズタスクに使用する研究を可能にすることである。
しかしながら、完全なデータセットやその一部は、チャネル推定や画像分類など、他の研究分野にも使用することができる。
ハウジングセンサデータにより、ローカライズ精度と信頼性が向上し、レイテンシと消費電力が減少する。
生成されたデータセットは、後日公開される予定だ。
関連論文リスト
- Radio Map Estimation -- An Open Dataset with Directive Transmitter
Antennas and Initial Experiments [49.61405888107356]
実世界の現実的な都市地図とオープンなデータソースからの航空画像とともに、シミュレーションされた経路損失無線マップのデータセットをリリースする。
モデルアーキテクチャ,入力特徴設計,航空画像からの無線マップの推定に関する実験を行った。
論文 参考訳(メタデータ) (2024-01-12T14:56:45Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - An Indoor Localization Dataset and Data Collection Framework with High
Precision Position Annotation [7.152408514130423]
この技術は、無線信号パラメータデータサンプルのアノテートに使用される拡張現実(AR)ベースの位置決めシステムを実装している。
我々は、ARマーカーで装飾された領域において、実用的で低コストで操作可能なカメラとBluetooth Low Energy(BLE)ビーコンの位置を追跡する。
以上の結果から,AR位置決めシステムの位置誤差を0.05m以下に抑えることができることがわかった。
論文 参考訳(メタデータ) (2022-09-06T07:41:11Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - SpaceNet 6: Multi-Sensor All Weather Mapping Dataset [13.715388432549373]
オープンなMulti-Sensor All Weather Mapping (MSAW)データセットと課題について述べる。
MSAWは複数の重なり合う集合体を120 km2で覆っており、48,000以上のユニークな建物フットプリントラベルがアノテートされている。
我々は,SARデータを用いた足跡抽出のためのベースラインとベンチマークを提案し,光学データに基づいて事前訓練された最先端セグメンテーションモデルを発見し,SARで訓練した。
論文 参考訳(メタデータ) (2020-04-14T13:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。