論文の概要: Infrared Beacons for Robust Localization
- arxiv url: http://arxiv.org/abs/2104.09335v1
- Date: Mon, 19 Apr 2021 14:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:34:44.586055
- Title: Infrared Beacons for Robust Localization
- Title(参考訳): ロバスト局在のための赤外ビーコン
- Authors: Alexandru Kampmann, Michael Lamberti, Nikola Petrovic, Stefan
Kowalewski, Bassam Alrifaee
- Abstract要約: 本稿では、赤外ビーコンと光帯域通過フィルタを備えたカメラを用いたローカライズシステムを提案する。
本システムは,照明条件にかかわらず,100m距離の個々のビーコンを確実に検出し識別することができる。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a localization system that uses infrared beacons and a
camera equipped with an optical band-pass filter. Our system can reliably
detect and identify individual beacons at 100m distance regardless of lighting
conditions. We describe the camera and beacon design as well as the image
processing pipeline in detail. In our experiments, we investigate and
demonstrate the ability of the system to recognize our beacons in both daytime
and nighttime conditions. High precision localization is a key enabler for
automated vehicles but remains unsolved, despite strong recent improvements.
Our low-cost, infrastructure-based approach helps solve the localization
problem. All datasets are made available.
- Abstract(参考訳): 本稿では、赤外ビーコンと光帯域通過フィルタを備えたカメラを用いたローカライズシステムを提案する。
本システムは,照明条件にかかわらず,100m距離の個々のビーコンを確実に検出し識別することができる。
本稿では,カメラとビーコンの設計と画像処理パイプラインの詳細について述べる。
実験では、昼と夜の両方の条件において、システムのビーコンを認識する能力を調査し、実証する。
高精度なローカライゼーションは自動走行車にとって重要な手段であるが、最近の進歩にもかかわらず未解決のままである。
ローコストでインフラベースのアプローチは、ローカライズ問題を解決するのに役立ちます。
すべてのデータセットが利用可能だ。
関連論文リスト
- The LuViRA Dataset: Measurement Description [53.35153095302381]
このデータセットには、Lund University Vision、Radio、Audio(LuViRA)データセットという、視覚、オーディオ、ラジオセンサーが含まれている。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーを融合させる研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - Fusion of Radio and Camera Sensor Data for Accurate Indoor Positioning [45.926983284834954]
広範に普及しているカメラのインフラが捉えた匿名の視覚検出を無線で読み取る新しい位置決めシステムであるRAVELを提案する。
我々の実験では、WiFi測定はそれ自体が十分正確ではないが、カメラデータと融合すると、不明瞭で断片的で匿名のビジュアル・トラックレットをまとめる触媒となる。
論文 参考訳(メタデータ) (2023-02-01T11:37:41Z) - An Indoor Localization Dataset and Data Collection Framework with High
Precision Position Annotation [7.152408514130423]
この技術は、無線信号パラメータデータサンプルのアノテートに使用される拡張現実(AR)ベースの位置決めシステムを実装している。
我々は、ARマーカーで装飾された領域において、実用的で低コストで操作可能なカメラとBluetooth Low Energy(BLE)ビーコンの位置を追跡する。
以上の結果から,AR位置決めシステムの位置誤差を0.05m以下に抑えることができることがわかった。
論文 参考訳(メタデータ) (2022-09-06T07:41:11Z) - End-to-end system for object detection from sub-sampled radar data [18.462990836437626]
本稿では,車載環境下で物体検出を行うために,サブサンプリングレーダデータを利用するエンドツーエンド信号処理パイプラインを提案する。
極端気象条件下での試料の20%を用いて再構成したレーダーデータに基づくロバスト検出を示す。
微調整セットで20%のサンプルレーダデータを生成し,AP50が1.1%,AP50が3%向上した。
論文 参考訳(メタデータ) (2022-03-08T08:02:33Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Learning to Localize Using a LiDAR Intensity Map [87.04427452634445]
自動運転車のリアルタイム・キャリブレーション非依存・効果的なローカライズシステムを提案する。
私たちの方法は、オンラインLiDARスイープと強度マップをジョイントディープ埋め込みスペースに埋め込む方法を学びます。
システム全体の動作は15hzで,さまざまなlidarセンサや環境においてセンチメートルレベルの精度を実現しています。
論文 参考訳(メタデータ) (2020-12-20T11:56:23Z) - Demo Abstract: Indoor Positioning System in Visually-Degraded
Environments with Millimetre-Wave Radar and Inertial Sensors [44.58134907168034]
本研究では,ミリ波レーダと慣性計測ユニット(IMU)データを深部センサ融合により融合する屋内位置決めシステムを提案する。
優れた精度とレジリエンスは、照明の悪いシーンでも見られた。
論文 参考訳(メタデータ) (2020-10-26T17:41:25Z) - Real-time Localization Using Radio Maps [59.17191114000146]
パスロスに基づく簡易かつ効果的なローカライゼーション法を提案する。
提案手法では, 受信した信号強度を, 既知の位置を持つ基地局の集合から報告する。
論文 参考訳(メタデータ) (2020-06-09T16:51:17Z) - Self-Supervised Localisation between Range Sensors and Overhead Imagery [24.18942374703494]
市販の衛星画像は、以前のセンサーマップが利用できない場合に、ユビキタスで安価で強力な車両位置決めツールとなり得る。
そこで本研究では,モダリティの違いに対処するだけでなく,学習のコストも低く,計量的に正確な基底真理を伴わない自己教師型学習法を提案する。
論文 参考訳(メタデータ) (2020-06-03T08:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。