論文の概要: Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation
- arxiv url: http://arxiv.org/abs/2009.11044v2
- Date: Wed, 30 Sep 2020 13:09:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 15:18:56.562037
- Title: Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation
- Title(参考訳): イベントデータの教師なし特徴学習:直接対逆問題定式化
- Authors: Dimche Kostadinov and Davide Scaramuzza
- Abstract要約: イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
- 参考スコア(独自算出の注目度): 53.850686395708905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based cameras record an asynchronous stream of per-pixel brightness
changes. As such, they have numerous advantages over the standard frame-based
cameras, including high temporal resolution, high dynamic range, and no motion
blur. Due to the asynchronous nature, efficient learning of compact
representation for event data is challenging. While it remains not explored the
extent to which the spatial and temporal event "information" is useful for
pattern recognition tasks. In this paper, we focus on single-layer
architectures. We analyze the performance of two general problem formulations:
the direct and the inverse, for unsupervised feature learning from local event
data (local volumes of events described in space-time). We identify and show
the main advantages of each approach. Theoretically, we analyze guarantees for
an optimal solution, possibility for asynchronous, parallel parameter update,
and the computational complexity. We present numerical experiments for object
recognition. We evaluate the solution under the direct and the inverse problem
and give a comparison with the state-of-the-art methods. Our empirical results
highlight the advantages of both approaches for representation learning from
event data. We show improvements of up to 9 % in the recognition accuracy
compared to the state-of-the-art methods from the same class of methods.
- Abstract(参考訳): イベントベースのカメラは、ピクセル毎の輝度変化の非同期ストリームを記録する。
そのため、高時間分解能、高ダイナミックレンジ、動きのぼやけなど、標準のフレームベースのカメラよりも多くの利点がある。
非同期性のため、イベントデータのコンパクト表現の効率的な学習は困難である。
空間的・時間的事象"情報"がパターン認識タスクに有用である程度は、まだ検討されていない。
本稿では,単層アーキテクチャに焦点をあてる。
ローカルイベントデータ(時空に記述されたイベントのローカルボリューム)から教師なし特徴学習を行うための,直接問題と逆問題という2つの一般的な問題定式化の性能を分析する。
それぞれのアプローチの主な利点を特定し、示します。
理論的には、最適解の保証、非同期、並列パラメータ更新の可能性、計算複雑性を解析する。
物体認識のための数値実験を行った。
直接的および逆問題に基づく解法の評価を行い,最先端手法との比較を行った。
私たちの経験的結果は、イベントデータからの表現学習における両方のアプローチの利点を強調します。
また,同一手法の認識精度が最大9 %向上し,同一手法の認識精度が向上した。
関連論文リスト
- Data-efficient Event Camera Pre-training via Disentangled Masked
Modeling [20.987277885575963]
イベントカメラのための新しいデータ教師付きボクセルベースの自己教師付き学習手法を提案する。
提案手法は,時間的情報を犠牲にしたり,ペア画像データを直接利用したりする従来の手法の限界を克服する。
優れた一般化性能を示し、パラメータが少なく、計算コストも低い様々なタスクで大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-01T10:02:25Z) - Relating Events and Frames Based on Self-Supervised Learning and
Uncorrelated Conditioning for Unsupervised Domain Adaptation [23.871860648919593]
イベントベースのカメラは、コンピュータビジョンタスクを実行するための正確かつ高時間分解能の測定を提供する。
それらの利点にもかかわらず、イベントベースのビジョンにディープラーニングを活用することは、注釈付きデータの不足のために大きな障害に直面する。
本稿では、イベントベースの未注釈データに基づいて、注釈付きフレームベースのデータに基づいてトレーニングされたディープニューラルネットワークを適用するための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-02T05:10:08Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Reliable Shot Identification for Complex Event Detection via
Visual-Semantic Embedding [72.9370352430965]
本稿では,映像中の事象検出のための視覚的意味的誘導損失法を提案する。
カリキュラム学習に動機付け,高い信頼性の事例で分類器の訓練を開始するために,負の弾性正規化項を導入する。
提案する非ネット正規化問題の解法として,代替最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-12T11:46:56Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。