論文の概要: A Fast Geometric Regularizer to Mitigate Event Collapse in the Contrast
Maximization Framework
- arxiv url: http://arxiv.org/abs/2212.07350v1
- Date: Wed, 14 Dec 2022 17:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 18:03:50.685076
- Title: A Fast Geometric Regularizer to Mitigate Event Collapse in the Contrast
Maximization Framework
- Title(参考訳): コントラスト最大化フレームワークにおけるイベント崩壊を緩和する高速幾何正規化器
- Authors: Shintaro Shiba, Yoshimitsu Aoki, Guillermo Gallego
- Abstract要約: 本稿では,事象の崩壊を緩和する幾何学的原理に基づく,新しい計算効率の高い正規化器を提案する。
実験により,提案した正則化器は最先端の精度を実現する一方で,計算複雑性の低減により,従来の手法の2倍から4倍の高速化が得られた。
- 参考スコア(独自算出の注目度): 13.298845944779108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are emerging vision sensors and their advantages are suitable
for various applications such as autonomous robots. Contrast maximization
(CMax), which provides state-of-the-art accuracy on motion estimation using
events, may suffer from an overfitting problem called event collapse. Prior
works are computationally expensive or cannot alleviate the overfitting, which
undermines the benefits of the CMax framework. We propose a novel,
computationally efficient regularizer based on geometric principles to mitigate
event collapse. The experiments show that the proposed regularizer achieves
state-of-the-art accuracy results, while its reduced computational complexity
makes it two to four times faster than previous approaches. To the best of our
knowledge, our regularizer is the only effective solution for event collapse
without trading off runtime. We hope our work opens the door for future
applications that unlocks the advantages of event cameras.
- Abstract(参考訳): イベントカメラは出現する視覚センサーであり、その利点は自律ロボットのような様々な用途に適している。
コントラスト最大化(CMax)は、イベントを用いた動き推定の最先端の精度を提供するが、イベント崩壊と呼ばれる過度な問題に悩まされる。
従来の作業は計算コストがかかるか、過度な適合を緩和できないため、CMaxフレームワークの利点を損なう。
本稿では,イベント崩壊を緩和する幾何学的原理に基づく,新しい計算効率の高い正規化器を提案する。
実験により,提案した正則化器は最先端の精度を達成し,計算複雑性の低減により従来の2倍から4倍の高速化が得られた。
私たちの知る限りでは、私たちのレギュラライザは、実行時に切り換えることなくイベントが崩壊する唯一の有効なソリューションです。
私たちは、イベントカメラの利点を解放する将来のアプリケーションへの扉を開くことを願っています。
関連論文リスト
- Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - CMax-SLAM: Event-based Rotational-Motion Bundle Adjustment and SLAM
System using Contrast Maximization [14.771885020122062]
イベントカメラはバイオインスパイアされた視覚センサで、ピクセルワイドの強度変化を捉え、非同期イベントストリームを出力する。
本稿では,イベントカメラを用いた回転運動推定の問題点について考察する。
過去10年間にいくつかの事象に基づく回転推定法が開発されてきたが、その性能は評価されていない。
論文 参考訳(メタデータ) (2024-03-12T23:05:10Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Event Collapse in Contrast Maximization Frameworks [13.298845944779108]
ContrastMax (C) は、いくつかのイベントベースのコンピュータビジョン、例えば光学エゴモーションやフロー推定などのタスクに対して最先端の結果を提供するフレームワークである。
しかし、それはイベント崩壊と呼ばれる問題に悩まされるかもしれない。
我々の研究は、最も単純な形で事象の崩壊を実証し、時空変形の第一原理を用いて崩壊メトリクスを提案する。
論文 参考訳(メタデータ) (2022-07-08T16:52:35Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Globally-Optimal Contrast Maximisation for Event Cameras [30.79931004393174]
イベントカメラはバイオインスパイアされたセンサーで、高時間分解能で難解な照明にうまく機能する。
イベントカメラの画素は独立して非同期に動作する。
事象の流れは、時空の体積における一般的なホモグラフィック・ワープによってモデル化される。
論文 参考訳(メタデータ) (2022-06-10T14:06:46Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - CoSeg: Cognitively Inspired Unsupervised Generic Event Segmentation [118.18977078626776]
イベントセグメンテーション/バウンダリ検出のためのエンドツーエンドの自己教師型学習フレームワークを提案する。
本フレームワークは, イベント境界を再構成誤差で検出するトランスフォーマーに基づく特徴再構成手法を利用する。
私たちの研究の目標は、特定のイベントをローカライズするのではなく、ジェネリックイベントをセグメント化することです。
論文 参考訳(メタデータ) (2021-09-30T14:40:32Z) - luvHarris: A Practical Corner Detector for Event-cameras [3.5097082077065]
イベント駆動型コンピュータビジョンがよりアクセスしやすくなってきた。
現在の最先端技術は、実用性を考慮した場合、満足のいく精度かリアルタイムパフォーマンスのいずれかを持っている。
検索イベント・ハリス(luvHarris)と呼ばれるコーナー検出を行う別の方法を提案する。
論文 参考訳(メタデータ) (2021-05-24T17:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。