論文の概要: Comparing Representations in Tracking for Event Camera-based SLAM
- arxiv url: http://arxiv.org/abs/2104.09887v1
- Date: Tue, 20 Apr 2021 10:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:30:02.825636
- Title: Comparing Representations in Tracking for Event Camera-based SLAM
- Title(参考訳): イベントカメラを用いたSLAMにおける追跡表現の比較
- Authors: Jianhao Jiao and Huaiyang Huang and Liang Li and Zhijian He and Yilong
Zhu and Ming Liu
- Abstract要約: 本稿では,イベントカメラを用いたトラッキングのための典型的な2つの画像型表現について検討する。
元のTSベースのトラッカーに基づいて、これらの2つの表現の相補的な強みを利用して拡張版を開発する。
- 参考スコア(独自算出の注目度): 13.524943337648818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates two typical image-type representations for event
camera-based tracking: time surface (TS) and event map (EM). Based on the
original TS-based tracker, we make use of these two representations'
complementary strengths to develop an enhanced version. The proposed tracker
consists of a general strategy to evaluate the optimization problem's
degeneracy online and then switch proper representations. Both TS and EM are
motion- and scene-dependent, and thus it is important to figure out their
limitations in tracking. We develop six tracker variations and conduct a
thorough comparison of them on sequences covering various scenarios and motion
complexities. We release our implementations and detailed results to benefit
the research community on event cameras: https:
//github.com/gogojjh/ESVO_extension.
- Abstract(参考訳): 本稿では,イベントカメラを用いた時間表面追跡(TS)とイベントマップ(EM)の2つの典型的な画像型表現について検討する。
元のTSベースのトラッカーに基づいて、これらの2つの表現の相補的な強みを利用して拡張版を開発する。
提案するトラッカーは,最適化問題のデジェネリティーをオンラインで評価し,適切な表現を切り替えるための一般的な戦略から構成される。
TSとEMはどちらも動きに依存しており、トラッキングの限界を理解することが重要である。
我々は6つのトラッカーのバリエーションを開発し、様々なシナリオや動きの複雑さをカバーするシーケンス上でそれらを徹底的に比較する。
我々は、イベントカメラの研究コミュニティに利益をもたらすために、実装と詳細な結果をリリースした。
関連論文リスト
- Cross-Modal Semi-Dense 6-DoF Tracking of an Event Camera in Challenging
Conditions [29.608665442108727]
イベントベースのカメラはバイオインスパイアされた視覚センサーであり、HDR条件でよく機能し、時間分解能が高い。
本研究は、代替センサのマッピングが許された場合、純粋にイベントベースのトラッキングの実現可能性を示す。
この手法は、半密度マップとイベントの幾何学的3D-2D登録に依存しており、信頼性が高く正確なクロスモーダル追跡結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T01:48:45Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - An Event-based Algorithm for Simultaneous 6-DOF Camera Pose Tracking and
Mapping [0.98482529843496]
イベントカメラは、各画素位置の強度の変化に基づいて、非同期にコンパクトなビジュアルデータを出力することができる。
我々は、その機能を評価するために、イベントのみのパイプラインの慣性バージョンを提案する。
地図推定が信頼できるならば、同等あるいはより正確な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-02T12:16:18Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - Cross-Modal Object Tracking: Modality-Aware Representations and A
Unified Benchmark [8.932487291107812]
多くの視覚系では、視覚的トラッキングはしばしばRGB画像シーケンスに基づいており、一部のターゲットは低照度環境では無効である。
追従過程におけるRGBとNIRの出現ギャップを軽減するために,モダリティを意識したターゲット表現を学習する新しいアルゴリズムを提案する。
無料の学術的利用のためにデータセットをリリースし、データセットのダウンロードリンクとコードを近くリリースします。
論文 参考訳(メタデータ) (2021-11-08T03:58:55Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - Multiple Convolutional Features in Siamese Networks for Object Tracking [13.850110645060116]
Multiple Features-Siamese Tracker (MFST) は、ロバストな追跡のために複数の階層的な特徴マップを利用する新しい追跡アルゴリズムである。
MFSTは、オブジェクト追跡ベンチマークにおいて標準のサイメムトラッカーよりも高いトラッキング精度を達成する。
論文 参考訳(メタデータ) (2021-03-01T08:02:27Z) - Dense Scene Multiple Object Tracking with Box-Plane Matching [73.54369833671772]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要なタスクである。
密集したシーンにおけるMOT性能を改善するために,Box-Plane Matching (BPM)法を提案する。
3つのモジュールの有効性により、ACM MM Grand Challenge HiEve 2020において、私たちのチームはトラック1のリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2020-07-30T16:39:22Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。