論文の概要: Neural Implicit Event Generator for Motion Tracking
- arxiv url: http://arxiv.org/abs/2111.03824v1
- Date: Sat, 6 Nov 2021 07:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:54:05.446111
- Title: Neural Implicit Event Generator for Motion Tracking
- Title(参考訳): 動き追跡のためのニューラル暗黙事象生成器
- Authors: Mana Masuda, Yusuke Sekikawa, Ryo Fujii, Hideo Saito
- Abstract要約: 暗黙の表現を用いたイベントデータからの動作追跡の新しいフレームワークを提案する。
本フレームワークは、暗黙のイベント生成(IEG)と呼ばれる事前学習イベント生成を使用し、観測されたイベントと生成されたイベントの現在の状態推定値との差に基づいて、その状態(位置と速度)を更新することで、動作追跡を行う。
我々は,騒音や背景が乱雑な環境下では,我々のフレームワークが実環境でも有効であることを確認した。
- 参考スコア(独自算出の注目度): 13.312655893024658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel framework of motion tracking from event data using
implicit expression. Our framework use pre-trained event generation MLP named
implicit event generator (IEG) and does motion tracking by updating its state
(position and velocity) based on the difference between the observed event and
generated event from the current state estimate. The difference is computed
implicitly by the IEG. Unlike the conventional explicit approach, which
requires dense computation to evaluate the difference, our implicit approach
realizes efficient state update directly from sparse event data. Our sparse
algorithm is especially suitable for mobile robotics applications where
computational resources and battery life are limited. To verify the
effectiveness of our method on real-world data, we applied it to the AR marker
tracking application. We have confirmed that our framework works well in
real-world environments in the presence of noise and background clutter.
- Abstract(参考訳): 暗黙の表現を用いたイベントデータからの動作追跡の新しいフレームワークを提案する。
本フレームワークは, 暗黙イベント発生器 (IEG) と命名された事前学習イベント生成MLPを用いて, 観測されたイベントと生成されたイベントとの差に基づいて, その状態(位置と速度)を更新し, 動作追跡を行う。
差分はIEGによって暗黙的に計算される。
差分を評価するために高密度な計算を必要とする従来の明示的アプローチとは異なり、我々の暗黙的アプローチはスパースイベントデータから直接効率的な状態更新を実現する。
我々のスパースアルゴリズムは計算資源とバッテリー寿命が制限された移動ロボット用途に特に適している。
実世界のデータに対する本手法の有効性を検証するため,ARマーカー追跡アプリケーションに適用した。
我々は,騒音や背景が乱雑な環境下では,我々のフレームワークが実環境でも有効であることを確認した。
関連論文リスト
- Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields [4.168157981135697]
本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
提案手法は、追跡問題を局所的なSE(2)運動補償ステップに分解し、その後、小さな動き補償イベントバッチのホモグラフィー登録を行う。
我々のオープンソース実装は高精度な動作補償を行い、実世界のシナリオで高品質なトラックを生成する。
論文 参考訳(メタデータ) (2023-03-05T13:48:20Z) - Event Transformer+. A multi-purpose solution for efficient event data
processing [13.648678472312374]
イベントカメラは、高時間分解能と高ダイナミックレンジでスパース照明変化を記録する。
現在の手法は特定のイベントデータ特性を無視することが多く、汎用的だが計算コストのかかるアルゴリズムの開発に繋がる。
本稿では,改良されたパッチベースのイベント表現を用いて,セマンティックな作業EvTを改善するEvent Transformer+を提案する。
論文 参考訳(メタデータ) (2022-11-22T12:28:37Z) - ProgressiveMotionSeg: Mutually Reinforced Framework for Event-Based
Motion Segmentation [101.19290845597918]
本稿では,動作推定 (ME) モジュールとイベントデノイング (ED) モジュールを相互に強化された方法で共同最適化する。
時間的相関をガイダンスとして、EDモジュールは各イベントが実活動イベントに属するという信頼度を算出し、MEモジュールに送信し、ノイズ抑制のための運動セグメンテーションのエネルギー関数を更新する。
論文 参考訳(メタデータ) (2022-03-22T13:40:26Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - A Hybrid Neuromorphic Object Tracking and Classification Framework for
Real-time Systems [5.959466944163293]
本稿では,イベントベースカメラを用いた物体追跡と分類のためのリアルタイムハイブリッドニューロモルフィックフレームワークを提案する。
イベント・バイ・イベント処理の従来のアプローチとは異なり、この作業では混合フレームとイベント・アプローチを使用して高性能な省エネを実現している。
論文 参考訳(メタデータ) (2020-07-21T07:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。