論文の概要: Infrared Beacons for Robust Localization
- arxiv url: http://arxiv.org/abs/2104.09335v1
- Date: Mon, 19 Apr 2021 14:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:34:44.586055
- Title: Infrared Beacons for Robust Localization
- Title(参考訳): ロバスト局在のための赤外ビーコン
- Authors: Alexandru Kampmann, Michael Lamberti, Nikola Petrovic, Stefan
Kowalewski, Bassam Alrifaee
- Abstract要約: 本稿では、赤外ビーコンと光帯域通過フィルタを備えたカメラを用いたローカライズシステムを提案する。
本システムは,照明条件にかかわらず,100m距離の個々のビーコンを確実に検出し識別することができる。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a localization system that uses infrared beacons and a
camera equipped with an optical band-pass filter. Our system can reliably
detect and identify individual beacons at 100m distance regardless of lighting
conditions. We describe the camera and beacon design as well as the image
processing pipeline in detail. In our experiments, we investigate and
demonstrate the ability of the system to recognize our beacons in both daytime
and nighttime conditions. High precision localization is a key enabler for
automated vehicles but remains unsolved, despite strong recent improvements.
Our low-cost, infrastructure-based approach helps solve the localization
problem. All datasets are made available.
- Abstract(参考訳): 本稿では、赤外ビーコンと光帯域通過フィルタを備えたカメラを用いたローカライズシステムを提案する。
本システムは,照明条件にかかわらず,100m距離の個々のビーコンを確実に検出し識別することができる。
本稿では,カメラとビーコンの設計と画像処理パイプラインの詳細について述べる。
実験では、昼と夜の両方の条件において、システムのビーコンを認識する能力を調査し、実証する。
高精度なローカライゼーションは自動走行車にとって重要な手段であるが、最近の進歩にもかかわらず未解決のままである。
ローコストでインフラベースのアプローチは、ローカライズ問題を解決するのに役立ちます。
すべてのデータセットが利用可能だ。
関連論文リスト
- A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - A Simple yet Effective Subway Self-positioning Method based on Aerial-view Sleeper Detection [5.863650527823292]
現在の地下鉄の位置決め方式は、線路に沿って密にプレインストールされた位置決めビーコンに依存している。
地下鉄のロバストで便利な位置決め問題に対処するために,低コストでリアルタイムな視覚支援型自己位置決めフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-12T11:15:39Z) - Fusion of Radio and Camera Sensor Data for Accurate Indoor Positioning [45.926983284834954]
広範に普及しているカメラのインフラが捉えた匿名の視覚検出を無線で読み取る新しい位置決めシステムであるRAVELを提案する。
我々の実験では、WiFi測定はそれ自体が十分正確ではないが、カメラデータと融合すると、不明瞭で断片的で匿名のビジュアル・トラックレットをまとめる触媒となる。
論文 参考訳(メタデータ) (2023-02-01T11:37:41Z) - End-to-end system for object detection from sub-sampled radar data [18.462990836437626]
本稿では,車載環境下で物体検出を行うために,サブサンプリングレーダデータを利用するエンドツーエンド信号処理パイプラインを提案する。
極端気象条件下での試料の20%を用いて再構成したレーダーデータに基づくロバスト検出を示す。
微調整セットで20%のサンプルレーダデータを生成し,AP50が1.1%,AP50が3%向上した。
論文 参考訳(メタデータ) (2022-03-08T08:02:33Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Learning to Localize Using a LiDAR Intensity Map [87.04427452634445]
自動運転車のリアルタイム・キャリブレーション非依存・効果的なローカライズシステムを提案する。
私たちの方法は、オンラインLiDARスイープと強度マップをジョイントディープ埋め込みスペースに埋め込む方法を学びます。
システム全体の動作は15hzで,さまざまなlidarセンサや環境においてセンチメートルレベルの精度を実現しています。
論文 参考訳(メタデータ) (2020-12-20T11:56:23Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - Real-time Localization Using Radio Maps [59.17191114000146]
パスロスに基づく簡易かつ効果的なローカライゼーション法を提案する。
提案手法では, 受信した信号強度を, 既知の位置を持つ基地局の集合から報告する。
論文 参考訳(メタデータ) (2020-06-09T16:51:17Z) - Self-Supervised Localisation between Range Sensors and Overhead Imagery [24.18942374703494]
市販の衛星画像は、以前のセンサーマップが利用できない場合に、ユビキタスで安価で強力な車両位置決めツールとなり得る。
そこで本研究では,モダリティの違いに対処するだけでなく,学習のコストも低く,計量的に正確な基底真理を伴わない自己教師型学習法を提案する。
論文 参考訳(メタデータ) (2020-06-03T08:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。