論文の概要: VibES: Induced Vibration for Persistent Event-Based Sensing
- arxiv url: http://arxiv.org/abs/2508.19094v1
- Date: Tue, 26 Aug 2025 14:58:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.892899
- Title: VibES: Induced Vibration for Persistent Event-Based Sensing
- Title(参考訳): VibES:永続イベントベースセンシングのための誘導振動
- Authors: Vincenzo Polizzi, Stephen Yang, Quentin Clark, Jonathan Kelly, Igor Gilitschenski, David B. Lindell,
- Abstract要約: イベントカメラはバイオインスパイアされたセンサーのクラスで、ピクセルごとの強度変化を非同期に測定する。
我々は、単純な回転不均衡質量を用いることで、持続的なイベント生成を維持するための軽量なアプローチを導入する。
これは、注入された動きを除去し、クリーンで動き補正されたイベントを生成するモーション補償パイプラインと組み合わせられる。
- 参考スコア(独自算出の注目度): 31.402804369924052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are a bio-inspired class of sensors that asynchronously measure per-pixel intensity changes. Under fixed illumination conditions in static or low-motion scenes, rigidly mounted event cameras are unable to generate any events, becoming unsuitable for most computer vision tasks. To address this limitation, recent work has investigated motion-induced event stimulation that often requires complex hardware or additional optical components. In contrast, we introduce a lightweight approach to sustain persistent event generation by employing a simple rotating unbalanced mass to induce periodic vibrational motion. This is combined with a motion-compensation pipeline that removes the injected motion and yields clean, motion-corrected events for downstream perception tasks. We demonstrate our approach with a hardware prototype and evaluate it on real-world captured datasets. Our method reliably recovers motion parameters and improves both image reconstruction and edge detection over event-based sensing without motion induction.
- Abstract(参考訳): イベントカメラはバイオインスパイアされたセンサーのクラスで、ピクセルごとの強度変化を非同期に測定する。
静的または低モーションシーンにおける固定照明条件下では、厳密に装着されたイベントカメラはイベントを発生できないため、ほとんどのコンピュータビジョンタスクには適さない。
この制限に対処するため、近年の研究では、複雑なハードウェアや追加の光学部品を必要とする運動誘発事象刺激について研究している。
対照的に、単純な回転不均衡質量を用いて周期振動を誘導することで、持続的な事象の発生を持続させる軽量なアプローチを導入する。
これは、注入された動きを除去し、下流の知覚タスクのためにクリーンで動き補正されたイベントを生成するモーション補償パイプラインと組み合わせられる。
当社のアプローチをハードウェアプロトタイプで実証し、実世界のキャプチャデータセットで評価する。
本手法は動作パラメータを確実に復元し,動き誘導のないイベントベースセンシングによる画像再構成とエッジ検出の両面で改善する。
関連論文リスト
- Inter-event Interval Microscopy for Event Cameras [52.05337480169517]
イベントカメラは、革新的なバイオインスパイアされたセンサーであり、強度を直接知覚するのではなく、強度の変化を感知することで従来のカメラとは異なる。
蛍光顕微鏡における静的および動的シーンの静的なイベントカメラを用いたイベント・ツー・インテンシティ変換を実現する。
我々は,ハイダイナミックレンジや高速シナリオなど,様々な場面でIEIMatデータセットを収集した。
論文 参考訳(メタデータ) (2025-04-07T11:05:13Z) - MotionStone: Decoupled Motion Intensity Modulation with Diffusion Transformer for Image-to-Video Generation [55.238542326124545]
静止画像に画像間(I2V)生成を条件付け、動き強度を付加的な制御信号として最近強化した。
これらの動き認識モデルは多様な動きパターンを生成するために魅力的だが、そのようなモデルを野生の大規模ビデオでトレーニングするための信頼性の高い動き推定器は存在しない。
本稿では,映像中の物体とカメラのデカップリング運動強度を計測できる新しい動き推定器の課題に対処する。
論文 参考訳(メタデータ) (2024-12-08T08:12:37Z) - Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - Microsaccade-inspired Event Camera for Robotics [42.27082276343167]
低反応時間と安定したテクスチャを同時に維持できるイベントベース認識システムの設計を行う。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズムによる補償を可能にする。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
論文 参考訳(メタデータ) (2024-05-28T02:49:46Z) - Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - Event-based Visual Tracking in Dynamic Environments [0.0]
イベントカメラとオフザシェルフ深層学習の両方を活用するためのフレームワークを提案する。
イベントデータを強度フレームに再構成することで、従来のカメラが許容できない状況下でのトラッキング性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-15T12:18:13Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。