論文の概要: Density Invariant Contrast Maximization for Neuromorphic Earth
Observations
- arxiv url: http://arxiv.org/abs/2304.14125v1
- Date: Thu, 27 Apr 2023 12:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:27:38.827710
- Title: Density Invariant Contrast Maximization for Neuromorphic Earth
Observations
- Title(参考訳): ニューロモルフィック地球観測のための密度不変コントラスト最大化
- Authors: Sami Arja, Alexandre Marcireau, Richard L. Balthazor, Matthew G.
McHarg, Saeed Afshar and Gregory Cohen
- Abstract要約: コントラスト(CMax)技術は、カメラの運動パラメータを推定し、高コントラスト画像を生成するために、イベントベースの視覚システムで広く用いられている。
これらの手法は耐雑音性があり、シーンが構造よりもノイズの多いイベントを含む場合に発生する多重エクストリーム問題に悩まされる。
提案手法は、コントラストを計算する前に歪んだ事象を補正することにより、複数の過度および耐雑音性問題を克服する。
- 参考スコア(独自算出の注目度): 55.970609838687864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrast maximization (CMax) techniques are widely used in event-based vision
systems to estimate the motion parameters of the camera and generate
high-contrast images. However, these techniques are noise-intolerance and
suffer from the multiple extrema problem which arises when the scene contains
more noisy events than structure, causing the contrast to be higher at multiple
locations. This makes the task of estimating the camera motion extremely
challenging, which is a problem for neuromorphic earth observation, because,
without a proper estimation of the motion parameters, it is not possible to
generate a map with high contrast, causing important details to be lost.
Similar methods that use CMax addressed this problem by changing or augmenting
the objective function to enable it to converge to the correct motion
parameters. Our proposed solution overcomes the multiple extrema and
noise-intolerance problems by correcting the warped event before calculating
the contrast and offers the following advantages: it does not depend on the
event data, it does not require a prior about the camera motion, and keeps the
rest of the CMax pipeline unchanged. This is to ensure that the contrast is
only high around the correct motion parameters. Our approach enables the
creation of better motion-compensated maps through an analytical compensation
technique using a novel dataset from the International Space Station (ISS).
Code is available at \url{https://github.com/neuromorphicsystems/event_warping}
- Abstract(参考訳): コントラスト最大化(CMax)技術は、イベントベースの視覚システムにおいて、カメラの運動パラメータを推定し、高コントラスト画像を生成するために広く用いられている。
しかし、これらの手法は耐雑音性があり、シーンが構造よりもノイズの多いイベントを含む場合に発生する多重極端問題に悩まされ、複数の場所でコントラストが高くなる。
これにより、運動パラメータの適切な推定がなければ、高コントラストの地図を生成できず、重要な詳細が失われてしまうため、神経形態的地球観測の課題であるカメラ動作の推定が極めて困難になる。
cmaxを使用する同様の方法は、目的関数を正しい動きパラメータに収束させるために変更または拡張することでこの問題に対処した。
提案手法は、コントラストを計算する前に歪んだイベントを補正することにより、複数の過度および耐雑音性問題を克服し、イベントデータに依存しない、カメラの動きに関する事前情報を必要としない、CMaxパイプラインの残りの部分を変更しないといった利点を提供する。
これは、コントラストが正しい動きパラメータの周りでのみ高いことを保証するためである。
本手法は,国際宇宙ステーション(ISS)の新たなデータセットを用いた解析的補償手法により,より優れた動き補償マップの作成を可能にする。
コードは \url{https://github.com/neuromorphicsystems/event_warping} で入手できる。
関連論文リスト
- Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - CamP: Camera Preconditioning for Neural Radiance Fields [56.46526219931002]
NeRFは、オブジェクトと大規模シーンの高忠実度3Dシーン再構成を得るために最適化することができる。
外部および固有のカメラパラメータは通常、NeRFの前処理ステップとしてStructure-from-Motion (SfM)法を用いて推定される。
本稿では,カメラパラメータ間の相関をなくし,その効果を正規化するホワイトニング変換を代用問題として提案する。
論文 参考訳(メタデータ) (2023-08-21T17:59:54Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - Event-based Image Deblurring with Dynamic Motion Awareness [10.81953574179206]
露光時間における実RGBのぼかし画像と関連する事象のペアを含む最初のデータセットを紹介する。
以上の結果より,PSNRは合成データで1.57dB,実イベントデータで1.08dBまで改善された。
論文 参考訳(メタデータ) (2022-08-24T09:39:55Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Globally-Optimal Contrast Maximisation for Event Cameras [30.79931004393174]
イベントカメラはバイオインスパイアされたセンサーで、高時間分解能で難解な照明にうまく機能する。
イベントカメラの画素は独立して非同期に動作する。
事象の流れは、時空の体積における一般的なホモグラフィック・ワープによってモデル化される。
論文 参考訳(メタデータ) (2022-06-10T14:06:46Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - Visual Odometry with an Event Camera Using Continuous Ray Warping and
Volumetric Contrast Maximization [31.627936023222052]
イベントカメラによるトラッキングとマッピングのための新しいソリューションを提案する。
カメラの動きは回転と変換の両方を含み、変位は任意に構造化された環境で起こる。
コントラストを3Dで実現することで,この問題に対する新たな解決法を提案する。
車両搭載イベントカメラによるAGV運動推定と3次元再構成への応用により,本手法の実用的妥当性が裏付けられる。
論文 参考訳(メタデータ) (2021-07-07T04:32:57Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。