論文の概要: Enhancing Visual Place Recognition via Fast and Slow Adaptive Biasing in Event Cameras
- arxiv url: http://arxiv.org/abs/2403.16425v2
- Date: Tue, 13 Aug 2024 04:16:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 22:45:05.734934
- Title: Enhancing Visual Place Recognition via Fast and Slow Adaptive Biasing in Event Cameras
- Title(参考訳): イベントカメラにおける高速・低速適応バイアスによる視覚的位置認識の強化
- Authors: Gokul B. Nair, Michael Milford, Tobias Fischer,
- Abstract要約: イベントカメラは、低レイテンシ、エネルギー効率、高ダイナミックレンジといった有益な特徴のために、ロボット工学でますます人気がある。
これらのパラメータは、イベントをトリガーするために必要な光強度の変化を規制する。
本稿では,2つのインタラクション手法を用いて,バイアスパラメータを自動的に調整するフィードバック制御アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 18.348497200655746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are increasingly popular in robotics due to beneficial features such as low latency, energy efficiency, and high dynamic range. Nevertheless, their downstream task performance is greatly influenced by the optimization of bias parameters. These parameters, for instance, regulate the necessary change in light intensity to trigger an event, which in turn depends on factors such as the environment lighting and camera motion. This paper introduces feedback control algorithms that automatically tune the bias parameters through two interacting methods: 1) An immediate, on-the-fly \textit{fast} adaptation of the refractory period, which sets the minimum interval between consecutive events, and 2) if the event rate exceeds the specified bounds even after changing the refractory period repeatedly, the controller adapts the pixel bandwidth and event thresholds, which stabilizes after a short period of noise events across all pixels (\textit{slow} adaptation). Our evaluation focuses on the visual place recognition task, where incoming query images are compared to a given reference database. We conducted comprehensive evaluations of our algorithms' adaptive feedback control in real-time. To do so, we collected the QCR-Fast-and-Slow dataset that contains DAVIS346 event camera streams from 366 repeated traversals of a Scout Mini robot navigating through a 100 meter long indoor lab setting (totaling over 35km distance traveled) in varying brightness conditions with ground truth location information. Our proposed feedback controllers result in superior performance when compared to the standard bias settings and prior feedback control methods. Our findings also detail the impact of bias adjustments on task performance and feature ablation studies on the fast and slow adaptation mechanisms.
- Abstract(参考訳): イベントカメラは、低レイテンシ、エネルギー効率、高ダイナミックレンジといった有益な特徴のために、ロボット工学でますます人気がある。
それでも、そのダウンストリームタスク性能はバイアスパラメータの最適化に大きく影響されている。
これらのパラメータは、例えば、イベントをトリガーするために必要な光強度の変化を規制します。
本稿では,2つのインタラクション手法を用いて,バイアスパラメータを自動調整するフィードバック制御アルゴリズムを提案する。
1) 連続イベント間の最小間隔を設定する屈折周期の即時、オンザフライ \textit{fast} 適応
2)屈折周期を繰り返し変更しても、イベントレートが指定された境界を超えると、制御部は画素帯域幅とイベントしきい値に適応し、全画素にわたる短いノイズイベントの後に安定化する(\textit{slow} 適応)。
本評価では,入力されたクエリイメージを参照データベースと比較する視覚的位置認識タスクに着目した。
アルゴリズムの適応フィードバック制御の総合的な評価をリアルタイムで行った。
そこで我々は,DAVIS346イベントカメラストリームを含むQCR-Fast-and-Slowデータセットを,100mの室内実験室を走行するScout Miniロボットの366回の走行から収集した。
提案したフィードバックコントローラは,標準バイアス設定や事前フィードバック制御手法と比較して,優れた性能を示す。
また, 偏差調整がタスク性能に及ぼす影響や, 高速・低速適応機構に関する特徴緩和研究について詳述した。
関連論文リスト
- Event-assisted Low-Light Video Object Segmentation [47.28027938310957]
イベントカメラは、このような低照度条件下でオブジェクトの可視性を高め、VOSメソッドを支援することを約束する。
本稿では、イベントカメラデータを利用してセグメンテーション精度を向上させる、低照度VOSに適した先駆的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T13:41:22Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Data-driven Feature Tracking for Event Cameras [48.04815194265117]
グレースケールフレームで検出された特徴を追跡するために、低レイテンシイベントを活用するイベントカメラのための、最初のデータ駆動機能トラッカーを紹介した。
合成データから実データに直接ゼロショットを転送することで、我々のデータ駆動トラッカーは、相対的特徴年齢における既存のアプローチを最大120%向上させる。
この性能ギャップはさらに130%増加し、トラッカーを新たな自己超越戦略で実データに適用する。
論文 参考訳(メタデータ) (2022-11-23T10:20:11Z) - Illumination-Invariant Active Camera Relocalization for Fine-Grained
Change Detection in the Wild [12.104718944788141]
本稿では,照度不変の能動カメラ再位置推定法について検討し,相対的なポーズ推定とスケール推定の両方を改善する。
画像ワープ誤差を最小限に抑え,各ACRの絶対スケールを求める線形システムを構築した。
我々の研究は、実世界の文化的遺産のきめ細かい変化監視タスクの実現可能性を大幅に拡大します。
論文 参考訳(メタデータ) (2022-04-13T18:00:55Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Feedback control of event cameras [0.0]
ダイナミックビジョンセンサイベントカメラは、明るさ変化イベントの可変データレートストリームを生成する。
画素レベルのイベント生成は閾値、帯域幅、屈折周期バイアス電流パラメータ設定によって制御される。
本稿では,イベントレートとノイズを測定する固定ステップフィードバックコントローラを提案する。
論文 参考訳(メタデータ) (2021-05-02T07:41:39Z) - Learned Camera Gain and Exposure Control for Improved Visual Feature
Detection and Matching [12.870196901446208]
我々は、環境照明の変化を考慮に入れたデータ駆動型アプローチを探求し、ビジュアル・オドメトリー(VO)や視覚同時像定位マッピング(SLAM)で使用する画像の品質を改善した。
我々は、カメラゲインと露出時間パラメータを予測的に調整するために、深層畳み込みニューラルネットワークモデルを訓練する。
我々は、我々のネットワークが劇的な照明変化を予想し、補うことができるような、広範囲な実世界の実験を通して実証する。
論文 参考訳(メタデータ) (2021-02-08T16:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。