論文の概要: An Event-based Fast Intensity Reconstruction Scheme for UAV Real-time Perception
- arxiv url: http://arxiv.org/abs/2508.02238v1
- Date: Mon, 04 Aug 2025 09:37:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.273682
- Title: An Event-based Fast Intensity Reconstruction Scheme for UAV Real-time Perception
- Title(参考訳): UAVリアルタイム認識のためのイベントベース高速インテンシティ再構築方式
- Authors: Xin Dong, Yiwei Zhang, Yangjie Cui, Jinwu Xiang, Daochun Li, Zhan Tu,
- Abstract要約: イベントカメラは広いダイナミックレンジ、時間分解能、動きのぼやけに対する免疫を提供する。
イベントカメラのオンボード実装には,非同期イベントストリームから有効な情報を抽出し,活用することが不可欠である。
このような実装課題に対処するために、イベントベースインテンシティ再構築スキーム、イベントベースシングル統合(ESI)を提案する。
- 参考スコア(独自算出の注目度): 14.744985063618884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras offer significant advantages, including a wide dynamic range, high temporal resolution, and immunity to motion blur, making them highly promising for addressing challenging visual conditions. Extracting and utilizing effective information from asynchronous event streams is essential for the onboard implementation of event cameras. In this paper, we propose a streamlined event-based intensity reconstruction scheme, event-based single integration (ESI), to address such implementation challenges. This method guarantees the portability of conventional frame-based vision methods to event-based scenarios and maintains the intrinsic advantages of event cameras. The ESI approach reconstructs intensity images by performing a single integration of the event streams combined with an enhanced decay algorithm. Such a method enables real-time intensity reconstruction at a high frame rate, typically 100 FPS. Furthermore, the relatively low computation load of ESI fits onboard implementation suitably, such as in UAV-based visual tracking scenarios. Extensive experiments have been conducted to evaluate the performance comparison of ESI and state-of-the-art algorithms. Compared to state-of-the-art algorithms, ESI demonstrates remarkable runtime efficiency improvements, superior reconstruction quality, and a high frame rate. As a result, ESI enhances UAV onboard perception significantly under visual adversary surroundings. In-flight tests, ESI demonstrates effective performance for UAV onboard visual tracking under extremely low illumination conditions(2-10lux), whereas other comparative algorithms fail due to insufficient frame rate, poor image quality, or limited real-time performance.
- Abstract(参考訳): イベントカメラは、広いダイナミックレンジ、高時間分解能、動きのぼやけに対する免疫などの大きな利点があり、難易度の高い視覚的条件に対処する上で非常に有望である。
イベントカメラのオンボード実装には,非同期イベントストリームから有効な情報を抽出し,活用することが不可欠である。
本稿では,イベントベースインテンシティ再構築手法であるイベントベース単一統合(ESI)を提案する。
この方法は、従来のフレームベースの視覚手法のイベントベースのシナリオへの移植性を保証し、イベントカメラの本質的な利点を維持する。
ESIアプローチは、拡張減衰アルゴリズムと組み合わせてイベントストリームの単一統合を実行することで、インテンシティイメージを再構成する。
このような手法により、高フレームレート(典型的には100FPS)でリアルタイムの強度再構成が可能となる。
さらに、ESIの比較的低い計算負荷は、UAVベースのビジュアルトラッキングシナリオのような実装に適している。
ESIと最先端アルゴリズムの性能比較を総合的に検討した。
最先端のアルゴリズムと比較すると、ESIは実行時効率の改善、再構築品質の向上、フレームレートの向上が目覚ましい。
その結果、ERIは視覚的対向環境下でUAVの知覚を著しく向上させる。
飛行中テストでは、非常に低い照明条件(2-10lux)下でUAV搭載の視覚追跡に有効な性能を示すが、他の比較アルゴリズムはフレームレートの不足、画質の低下、リアルタイム性能の制限により失敗する。
関連論文リスト
- Event Signal Filtering via Probability Flux Estimation [58.31652473933809]
イベントは、非同期センシングを通じてシーンダイナミクスをキャプチャするための新しいパラダイムを提供するが、その固有のランダム性は、しばしば劣化した信号品質につながる。
したがって、イベント信号フィルタリングは、この内部ランダム性を低減し、多様な取得条件をまたいだ一貫した出力を確保することで、忠実性を高めるために不可欠である。
本稿ではイベント密度フローフィルタ(EDFilter)と呼ばれる生成オンラインフィルタリングフレームワークを紹介する。
実験では、イベントフィルタリング、スーパーレゾリューション、イベントベースの直接追跡といったタスクでEDFilterのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-04-10T07:03:08Z) - SuperEIO: Self-Supervised Event Feature Learning for Event Inertial Odometry [6.552812892993662]
イベントカメラは非同期に低レイテンシのイベントストリームを出力し、高速動作における状態推定と挑戦的な照明条件を約束する。
我々は,学習に基づく事象のみの検出とIMU測定を利用して,事象慣性オドメトリーを実現する新しいフレームワークであるSuperEIOを提案する。
提案手法を複数の公開データセット上で広範囲に評価し,その精度とロバスト性を他の最先端のイベントベース手法と比較した。
論文 参考訳(メタデータ) (2025-03-29T03:58:15Z) - EventSplat: 3D Gaussian Splatting from Moving Event Cameras for Real-time Rendering [7.392798832833857]
イベントカメラは例外的な時間分解能と高いダイナミックレンジを提供する。
ガウススプラッティングによる新しいビュー合成におけるイベントカメラデータの利用法を提案する。
論文 参考訳(メタデータ) (2024-12-10T08:23:58Z) - Self-supervised Event-based Monocular Depth Estimation using Cross-modal
Consistency [18.288912105820167]
EMoDepth という自己教師型イベントベース単眼深度推定フレームワークを提案する。
EMoDepthは、ピクセル座標内のイベントに整合した強度フレームからのクロスモーダル一貫性を使用して、トレーニングプロセスを制約する。
推論では、単分子深度予測にはイベントのみを使用する。
論文 参考訳(メタデータ) (2024-01-14T07:16:52Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - Ego-motion Estimation Based on Fusion of Images and Events [0.0]
イベントカメラは、イベントストリームを出力するバイオインスパイアされた新しい視覚センサーである。
EASと呼ばれる新しいデータ融合アルゴリズムを提案し、イベントストリームと従来の強度画像とを融合する。
論文 参考訳(メタデータ) (2022-07-12T15:10:28Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based visual place recognition with ensembles of temporal windows [29.6328152991222]
イベントカメラは、低レイテンシと高レンジで連続的なイベントストリームを提供することができるバイオインスパイアされたセンサーである。
我々は,異なる長さの時間ウィンドウを並列に処理する,アンサンブルに基づく新しい手法を開発した。
提案するアンサンブル方式は, 単ウィンドウベースラインや従来のモデルベースアンサンブルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-05-22T05:33:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。