論文の概要: A Preliminary Research on Space Situational Awareness Based on Event
Cameras
- arxiv url: http://arxiv.org/abs/2203.13093v2
- Date: Fri, 25 Mar 2022 02:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 11:55:29.527902
- Title: A Preliminary Research on Space Situational Awareness Based on Event
Cameras
- Title(参考訳): イベントカメラを用いた空間的状況認識に関する予備的研究
- Authors: Kun Xiao, Pengju Li, Guohui Wang, Zhi Li, Yi Chen, Yongfeng Xie,
Yuqiang Fang
- Abstract要約: イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
トリガーイベントは、画素に照射された明るさの変化である。
従来のカメラと比較して、イベントカメラは高時間分解能、低レイテンシ、高ダイナミックレンジ、低帯域幅、低消費電力の利点がある。
- 参考スコア(独自算出の注目度): 8.27218838055049
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Event camera is a new type of sensor that is different from traditional
cameras. Each pixel is triggered asynchronously by an event. The trigger event
is the change of the brightness irradiated on the pixel. If the increment or
decrement is higher than a certain threshold, the event is output. Compared
with traditional cameras, event cameras have the advantages of high temporal
resolution, low latency, high dynamic range, low bandwidth and low power
consumption. We carried out a series of observation experiments in a simulated
space lighting environment. The experimental results show that the event camera
can give full play to the above advantages in space situational awareness. This
article first introduces the basic principles of the event camera, then
analyzes its advantages and disadvantages, then introduces the observation
experiment and analyzes the experimental results, and finally, a workflow of
space situational awareness based on event cameras is given.
- Abstract(参考訳): イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
各ピクセルはイベントによって非同期に起動される。
トリガーイベントは、画素に照射された輝度の変化である。
インクリメントまたはデクリメントが特定のしきい値よりも高い場合、イベントは出力される。
従来のカメラと比較して、イベントカメラは高時間分解能、低レイテンシ、高ダイナミックレンジ、低帯域幅、低消費電力の利点がある。
模擬空間照明環境における観測実験を行った。
実験結果から, イベントカメラは, 上記の空間的状況認識の利点をフルに活用できることが示された。
本稿では,まずイベントカメラの基本原理を紹介し,その長所と短所を分析し,観察実験を行い,実験結果を分析し,最後に,イベントカメラに基づく空間状況認識のワークフローについて述べる。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - Microsaccade-inspired Event Camera for Robotics [42.27082276343167]
低反応時間と安定したテクスチャを同時に維持できるイベントベース認識システムの設計を行う。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズムによる補償を可能にする。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
論文 参考訳(メタデータ) (2024-05-28T02:49:46Z) - Deep Event Visual Odometry [40.57142632274148]
イベントカメラは、高速動作中にカメラのポーズを追跡するエキサイティングな可能性を提供します。
既存のイベントベースのモノクロビジュアルオドメトリーアプローチは、最近のベンチマークで限られたパフォーマンスを示している。
我々は,多数の実世界のベンチマークで高い性能を示す最初の単眼イベントオンリーシステムであるDeep Event VO(DEVO)を紹介する。
論文 参考訳(メタデータ) (2023-12-15T14:00:00Z) - Event-based Camera Tracker by $\nabla$t NeRF [11.572930535988325]
ニューラルレイディアンス場(NeRF)として表現されるシーンのスパース事象と時間勾配の誤差を最小化することにより、カメラのポーズを復元できることを示す。
スパースイベントの観測を用いてポーズ更新を実現するイベントベースのカメラポーズトラッキングフレームワークTeGRAを提案する。
論文 参考訳(メタデータ) (2023-04-07T16:03:21Z) - Are High-Resolution Event Cameras Really Needed? [62.70541164894224]
低照度条件や高速環境では、低解像度カメラは高解像度カメラより優れ、帯域幅は大幅に小さくなる。
この主張は,高解像度のイベントカメラが画素当たりのイベントレートが高いことを示す実証的証拠と理論的証拠の両方を提示する。
多くの場合、高解像度のイベントカメラは、これらの条件下では低解像度のセンサーに比べてタスク性能が低い。
論文 参考訳(メタデータ) (2022-03-28T12:06:20Z) - E$^2$(GO)MOTION: Motion Augmented Event Stream for Egocentric Action
Recognition [21.199869051111367]
イベントカメラは「イベント」の形でピクセルレベルの強度変化を捉えます
N-EPIC-Kitchensは、大規模なEPIC-Kitchensデータセットの最初のイベントベースのカメラ拡張である。
イベントデータは、RGBと光フローに匹敵するパフォーマンスを提供するが、デプロイ時に追加のフロー計算を行わないことを示す。
論文 参考訳(メタデータ) (2021-12-07T09:43:08Z) - Research on Event Accumulator Settings for Event-Based SLAM [6.830610030874817]
イベントカメラは高いダイナミックレンジの利点があり、動きのぼやけがない。
より優れたイベントベースのSLAMパフォーマンスを実現するために、イベントフレームの蓄積方法の研究を行います。
実験結果から,提案手法は,最先端のイベントフレームベースのSLAMアルゴリズムと比較して,ほとんどのシーケンスで性能が向上することが示された。
論文 参考訳(メタデータ) (2021-12-01T11:35:17Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。