論文の概要: Lattice-allocated Real-time Line Segment Feature Detection and Tracking Using Only an Event-based Camera
- arxiv url: http://arxiv.org/abs/2510.06829v1
- Date: Wed, 08 Oct 2025 09:52:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.405343
- Title: Lattice-allocated Real-time Line Segment Feature Detection and Tracking Using Only an Event-based Camera
- Title(参考訳): イベントベースカメラのみを用いた格子配置リアルタイム線分特徴検出と追跡
- Authors: Mikihiro Ikura, Arren Glover, Masayoshi Mizuno, Chiara Bartolozzi,
- Abstract要約: 線分抽出は人為環境の幾何学的特徴を捉えるのに有効である。
最近の手法は、しばしば追加のフレームカメラに頼るか、高いイベントレートで苦労する。
本研究は,最新の高解像度(高イベントレート)イベントベースカメラのみを用いて,リアルタイムの線分検出と追跡を行う。
- 参考スコア(独自算出の注目度): 11.426102313790894
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Line segment extraction is effective for capturing geometric features of human-made environments. Event-based cameras, which asynchronously respond to contrast changes along edges, enable efficient extraction by reducing redundant data. However, recent methods often rely on additional frame cameras or struggle with high event rates. This research addresses real-time line segment detection and tracking using only a modern, high-resolution (i.e., high event rate) event-based camera. Our lattice-allocated pipeline consists of (i) velocity-invariant event representation, (ii) line segment detection based on a fitting score, (iii) and line segment tracking by perturbating endpoints. Evaluation using ad-hoc recorded dataset and public datasets demonstrates real-time performance and higher accuracy compared to state-of-the-art event-only and event-frame hybrid baselines, enabling fully stand-alone event camera operation in real-world settings.
- Abstract(参考訳): 線分抽出は人為環境の幾何学的特徴を捉えるのに有効である。
エッジに沿ったコントラスト変化に非同期に応答するイベントベースのカメラは、冗長データを削減して効率的な抽出を可能にする。
しかし、最近の手法は、しばしば追加のフレームカメラに頼るか、高いイベントレートで苦労する。
本研究は,最新の高解像度(高イベントレート)イベントベースカメラのみを用いて,リアルタイムの線分検出と追跡を行う。
私たちの格子配置パイプラインは
(i)速度不変イベント表現
二 適合点に基づく線分検出
(iii) 終端の摂動による線分追跡
アドホックなデータセットとパブリックデータセットを使用した評価は、最先端のイベントオンリーおよびイベントフレームハイブリッドベースラインと比較して、リアルタイムのパフォーマンスと高い精度を示し、現実の環境での完全なスタンドアローンのイベントカメラ操作を可能にする。
関連論文リスト
- EMF: Event Meta Formers for Event-based Real-time Traffic Object Detection [5.143097874851516]
イベントカメラは時間分解能が高く、従来のRGBカメラに比べてストレージと帯域幅は少ない。
イベントベースのオブジェクト検出における最近のアプローチは、計算コストの高いトランスフォーマーベースのソリューションを用いることで、このギャップを埋めようとしている。
提案するEMFは,最も効率的なイベントベース物体検出器の性能を向上し,ドメイン内で最速のプログレッシオンベースアーキテクチャとなる。
論文 参考訳(メタデータ) (2025-04-05T09:48:40Z) - Evaluating Image-Based Face and Eye Tracking with Event Cameras [9.677797822200965]
イベントカメラはニューロモルフィックセンサーとしても知られており、ピクセルレベルの局所光強度の変化を捉え、非同期に生成されたイベントと呼ばれるデータを生成する。
このデータフォーマットは、高速で動く物体を撮影する際のアンダーサンプリングのような、従来のカメラで観察される一般的な問題を緩和する。
我々は、従来のアルゴリズムとイベントベースのデータを統合することにより、フレーム形式に変換される可能性を評価する。
論文 参考訳(メタデータ) (2024-08-19T20:27:08Z) - Event-to-Video Conversion for Overhead Object Detection [7.744259147081667]
イベントカメラは、特にオブジェクト検出などの複雑なタスクにおいて、下流の画像処理を複雑にする。
本稿では,高密度イベント表現とそれに対応するRGBフレームの間には,大きな差があることを述べる。
このギャップを埋めるために、イベントストリームをグレースケールのビデオに変換するイベント間変換モデルを適用する。
論文 参考訳(メタデータ) (2024-02-09T22:07:39Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields [4.168157981135697]
本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
提案手法は、追跡問題を局所的なSE(2)運動補償ステップに分解し、その後、小さな動き補償イベントバッチのホモグラフィー登録を行う。
我々のオープンソース実装は高精度な動作補償を行い、実世界のシナリオで高品質なトラックを生成する。
論文 参考訳(メタデータ) (2023-03-05T13:48:20Z) - A Unified Framework for Event-based Frame Interpolation with Ad-hoc Deblurring in the Wild [72.0226493284814]
本稿では,デブロリングアドホックを行うイベントベースフレームの統一フレームワークを提案する。
我々のネットワークは、フレーム上の従来の最先端の手法、単一画像のデブロアリング、および両者のジョイントタスクを一貫して上回ります。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。