論文の概要: EvMAPPER: High Altitude Orthomapping with Event Cameras
- arxiv url: http://arxiv.org/abs/2409.18120v1
- Date: Thu, 26 Sep 2024 17:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 21:27:33.320090
- Title: EvMAPPER: High Altitude Orthomapping with Event Cameras
- Title(参考訳): EvMAPPER:イベントカメラ搭載の高高度オーソマッピング
- Authors: Fernando Cladera, Kenneth Chaney, M. Ani Hsieh, Camillo J. Taylor, Vijay Kumar,
- Abstract要約: この研究は、イベントカメラを用いた最初のオルソモザイク的アプローチを導入している。
CMOSカメラにのみ依存する既存の手法とは対照的に,本手法は難易度の高い光条件においてもマップ生成を可能にする。
- 参考スコア(独自算出の注目度): 58.86453514045072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, unmanned aerial vehicles (UAVs) rely on CMOS-based cameras to collect images about the world below. One of the most successful applications of UAVs is to generate orthomosaics or orthomaps, in which a series of images are integrated together to develop a larger map. However, the use of CMOS-based cameras with global or rolling shutters mean that orthomaps are vulnerable to challenging light conditions, motion blur, and high-speed motion of independently moving objects under the camera. Event cameras are less sensitive to these issues, as their pixels are able to trigger asynchronously on brightness changes. This work introduces the first orthomosaic approach using event cameras. In contrast to existing methods relying only on CMOS cameras, our approach enables map generation even in challenging light conditions, including direct sunlight and after sunset.
- Abstract(参考訳): 従来、無人航空機(UAV)はCMOSベースのカメラを使って下の世界の画像を収集していた。
UAVの最も成功した応用の1つは、より大きな地図を開発するために一連の画像が統合される、オルソモザイク(ortomosaics)またはオルソマップを生成することである。
しかし、グローバルシャッターやローリングシャッターを備えたCMOSベースのカメラを使用することで、直交マップは難易度の高い光条件、動きのぼやけ、カメラの下に独立して動く物体の高速な動きに対して脆弱である。
イベントカメラは、これらの問題に敏感ではない。
この研究は、イベントカメラを用いた最初のオルソモザイク的アプローチを導入している。
CMOSカメラのみに頼っている既存の手法とは対照的に、直射日光や日没後の光条件においてもマップ生成が可能となる。
関連論文リスト
- Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - Microsaccade-inspired Event Camera for Robotics [42.27082276343167]
低反応時間と安定したテクスチャを同時に維持できるイベントベース認識システムの設計を行う。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズムによる補償を可能にする。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
論文 参考訳(メタデータ) (2024-05-28T02:49:46Z) - A Data-Driven Approach for Mitigating Dark Current Noise and Bad Pixels in Complementary Metal Oxide Semiconductor Cameras for Space-based Telescopes [2.4489471766462625]
我々は、CMOSカメラの暗電流ノイズと悪い画素を緩和するデータ駆動フレームワークを提案する。
私たちのアプローチには、ピクセルクラスタリングと関数フィッティングという2つの重要なステップがあります。
その結果,宇宙望遠鏡の検出効率は大幅に向上した。
論文 参考訳(メタデータ) (2024-03-15T11:15:06Z) - Panoramas from Photons [22.437940699523082]
低光域や高ダイナミックレンジといった困難な条件下での極端なシーンの動きを推定できる手法を提案する。
本手法は, ファクト後のフレームを階層的にグループ化し, 集約することに依存する。
高速動作と極低光下での高画質パノラマの創出と,カスタム単光子カメラの試作による超高分解能化を実証した。
論文 参考訳(メタデータ) (2023-09-07T16:07:31Z) - SmartMocap: Joint Estimation of Human and Camera Motion using
Uncalibrated RGB Cameras [49.110201064166915]
複数のRGBカメラからのマーカーレス人間のモーションキャプチャ(モキャップ)は、広く研究されている問題である。
既存の方法は、モキャップシステムの基準フレームとして機能するスタティックカメラに対して、キャリブレーションされたカメラを必要とするか、あるいはそれらをキャリブレーションする必要がある。
複数の静止・移動可能なRGBカメラを用いたモキャップ方式を提案する。
論文 参考訳(メタデータ) (2022-09-28T08:21:04Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - Asynchronous Multi-View SLAM [78.49842639404413]
既存のマルチカメラSLAMシステムは、すべてのカメラの同期シャッターを想定しています。
我々のフレームワークは、トラッキング、ローカルマッピング、ループクローズの間、非同期多フレーム間で情報を関連付けるために、連続時間モーションモデルを統合する。
論文 参考訳(メタデータ) (2021-01-17T00:50:01Z) - Minimal Solutions for Panoramic Stitching Given Gravity Prior [53.047330182598124]
我々は,光学中心が一致するカメラで撮影した画像のパノラマ画像縫合に対する最小限の解を提案する。
固定長や焦点距離の変動を視線歪みの有無で仮定し, 4つの実用的なカメラ構成について検討した。
シンセサイザーは、合成シーンと、Sun360データセットから500万枚以上の実画像のペアと、IMUを搭載した2台のスマートフォンを使って、私たちによって撮影されたシーンの両方でテストされる。
論文 参考訳(メタデータ) (2020-12-01T13:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。