論文の概要: Microsaccade-inspired Event Camera for Robotics
- arxiv url: http://arxiv.org/abs/2405.17769v1
- Date: Tue, 28 May 2024 02:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 22:32:09.526105
- Title: Microsaccade-inspired Event Camera for Robotics
- Title(参考訳): マイクロサケードにインスパイアされたロボット用イベントカメラ
- Authors: Botao He, Ze Wang, Yuan Zhou, Jingxi Chen, Chahat Deep Singh, Haojia Li, Yuman Gao, Shaojie Shen, Kaiwei Wang, Yanjun Cao, Chao Xu, Yiannis Aloimonos, Fei Gao, Cornelia Fermuller,
- Abstract要約: 低反応時間と安定したテクスチャを同時に維持できるイベントベース認識システムの設計を行う。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズムによる補償を可能にする。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
- 参考スコア(独自算出の注目度): 42.27082276343167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuromorphic vision sensors or event cameras have made the visual perception of extremely low reaction time possible, opening new avenues for high-dynamic robotics applications. These event cameras' output is dependent on both motion and texture. However, the event camera fails to capture object edges that are parallel to the camera motion. This is a problem intrinsic to the sensor and therefore challenging to solve algorithmically. Human vision deals with perceptual fading using the active mechanism of small involuntary eye movements, the most prominent ones called microsaccades. By moving the eyes constantly and slightly during fixation, microsaccades can substantially maintain texture stability and persistence. Inspired by microsaccades, we designed an event-based perception system capable of simultaneously maintaining low reaction time and stable texture. In this design, a rotating wedge prism was mounted in front of the aperture of an event camera to redirect light and trigger events. The geometrical optics of the rotating wedge prism allows for algorithmic compensation of the additional rotational motion, resulting in a stable texture appearance and high informational output independent of external motion. The hardware device and software solution are integrated into a system, which we call Artificial MIcrosaccade-enhanced EVent camera (AMI-EV). Benchmark comparisons validate the superior data quality of AMI-EV recordings in scenarios where both standard cameras and event cameras fail to deliver. Various real-world experiments demonstrate the potential of the system to facilitate robotics perception both for low-level and high-level vision tasks.
- Abstract(参考訳): ニューロモルフィック視覚センサーやイベントカメラは、非常に低い反応時間の視覚的認識を可能にし、ハイダイナミックなロボティクス応用のための新たな道を開いた。
これらのイベントカメラの出力は、動きとテクスチャの両方に依存する。
しかし、イベントカメラは、カメラの動きと平行なオブジェクトエッジをキャプチャできない。
これはセンサーに固有の問題であり、アルゴリズムを解くのが難しい。
人間の視覚は、小さな不随意眼球運動の能動機構を用いて知覚の失明を扱う。
固定中に目が常にわずかに動くことで、マイクロサケードはテクスチャの安定性と持続性を大幅に維持できる。
マイクロサケードにインスパイアされた我々は,低反応時間と安定したテクスチャを同時に維持できるイベントベースの知覚システムを設計した。
この設計では、回転するウェッジプリズムがイベントカメラの開口部の前に取り付けられ、光をリダイレクトし、イベントをトリガーする。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズム的補償を可能にし、安定したテクスチャの外観と外部運動とは無関係に高い情報出力をもたらす。
ハードウェアデバイスとソフトウェアソリューションはシステムに統合され、我々はArtificial MIcrosaccade-enhanced EVent camera (AMI-EV)と呼ぶ。
ベンチマーク比較は、標準カメラとイベントカメラの両方が配信できないシナリオにおいて、AMI-EV記録の優れたデータ品質を検証する。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
関連論文リスト
- Deep Event Visual Odometry [40.57142632274148]
イベントカメラは、高速動作中にカメラのポーズを追跡するエキサイティングな可能性を提供します。
既存のイベントベースのモノクロビジュアルオドメトリーアプローチは、最近のベンチマークで限られたパフォーマンスを示している。
我々は,多数の実世界のベンチマークで高い性能を示す最初の単眼イベントオンリーシステムであるDeep Event VO(DEVO)を紹介する。
論文 参考訳(メタデータ) (2023-12-15T14:00:00Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - TimeReplayer: Unlocking the Potential of Event Cameras for Video
Interpolation [78.99283105497489]
イベントカメラは、任意に複雑な動きのあるビデオを可能にする新しいデバイスである。
本稿では,コモディティカメラが捉えた映像とイベントとを補間するTimeReplayerアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-25T18:57:42Z) - A Preliminary Research on Space Situational Awareness Based on Event
Cameras [8.27218838055049]
イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
トリガーイベントは、画素に照射された明るさの変化である。
従来のカメラと比較して、イベントカメラは高時間分解能、低レイテンシ、高ダイナミックレンジ、低帯域幅、低消費電力の利点がある。
論文 参考訳(メタデータ) (2022-03-24T14:36:18Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Moving Object Detection for Event-based Vision using k-means Clustering [0.0]
物体検出の移動はコンピュータビジョンにおいて重要な課題である。
イベントベースのカメラは、人間の目の動きを模倣して動作するバイオインスパイアされたカメラである。
本稿では,イベントベースデータにおける移動物体の検出におけるk平均クラスタリング手法の適用について検討する。
論文 参考訳(メタデータ) (2021-09-04T14:43:14Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - They See Me Rollin': Inherent Vulnerability of the Rolling Shutter in
CMOS Image Sensors [21.5487020124302]
カメラの電子回転シャッターを利用して微細な画像破壊を注入することができる。
敵がレーザーを変調して、最先端の検出器で認識される物体の75%を隠蔽する方法を示す。
以上の結果から,ローリングシャッター攻撃は視覚に基づくインテリジェントシステムの性能と信頼性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-25T11:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。