論文の概要: Event Quality Score (EQS): Assessing the Realism of Simulated Event Camera Streams via Distances in Latent Space
- arxiv url: http://arxiv.org/abs/2504.12515v1
- Date: Wed, 16 Apr 2025 22:25:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:37:04.975247
- Title: Event Quality Score (EQS): Assessing the Realism of Simulated Event Camera Streams via Distances in Latent Space
- Title(参考訳): イベント品質スコア(EQS) : 潜時空間における距離を用いたシミュレーションイベントカメラストリームのリアリズムの評価
- Authors: Kaustav Chanda, Aayush Atul Verma, Arpitsinh Vaghela, Yezhou Yang, Bharatesh Chakravarthi,
- Abstract要約: イベントカメラは、低レイテンシ、高ダイナミックレンジ、非同期なイベントの性質でビジョンセンシングのパラダイムシフトを約束する。
本稿では,RVTアーキテクチャのアクティベーションを利用した品質指標であるイベント品質スコア(EQS)を紹介する。
- 参考スコア(独自算出の注目度): 20.537672896807063
- License:
- Abstract: Event cameras promise a paradigm shift in vision sensing with their low latency, high dynamic range, and asynchronous nature of events. Unfortunately, the scarcity of high-quality labeled datasets hinders their widespread adoption in deep learning-driven computer vision. To mitigate this, several simulators have been proposed to generate synthetic event data for training models for detection and estimation tasks. However, the fundamentally different sensor design of event cameras compared to traditional frame-based cameras poses a challenge for accurate simulation. As a result, most simulated data fail to mimic data captured by real event cameras. Inspired by existing work on using deep features for image comparison, we introduce event quality score (EQS), a quality metric that utilizes activations of the RVT architecture. Through sim-to-real experiments on the DSEC driving dataset, it is shown that a higher EQS implies improved generalization to real-world data after training on simulated events. Thus, optimizing for EQS can lead to developing more realistic event camera simulators, effectively reducing the simulation gap. EQS is available at https://github.com/eventbasedvision/EQS.
- Abstract(参考訳): イベントカメラは、低レイテンシ、高ダイナミックレンジ、非同期なイベントの性質でビジョンセンシングのパラダイムシフトを約束する。
残念ながら、高品質なラベル付きデータセットの不足は、ディープラーニング駆動型コンピュータビジョンの普及を妨げている。
これを軽減するために、複数のシミュレーターが、検出および推定タスクのトレーニングモデルのための合成イベントデータを生成するために提案されている。
しかし、従来のフレームベースのカメラと比較して、イベントカメラのセンサー設計が根本的に異なることは、正確なシミュレーションの課題である。
その結果、ほとんどのシミュレーションデータは、実際のイベントカメラが捉えたデータを模倣することができない。
画像比較に深層機能を用いた既存の研究に触発されて,RVTアーキテクチャの活性化を利用した品質指標であるイベント品質スコア(EQS)を導入した。
DSEC駆動データセットのシミュレート・トゥ・リアルな実験を通して、より高いEQSはシミュレーションイベントのトレーニング後に実世界のデータへの一般化を改善することを示唆している。
したがって、EQSの最適化はより現実的なイベントカメラシミュレータの開発につながり、シミュレーションギャップを効果的に減らすことができる。
EQSはhttps://github.com/eventbasedvision/EQSで入手できる。
関連論文リスト
- ADV2E: Bridging the Gap Between Analogue Circuit and Discrete Frames in the Video-to-Events Simulator [6.783044920569469]
イベントカメラは、従来のActive Pixel Sensor(APS)カメラとは根本的に異なり、大きな利点がある。
近年の研究では、ビデオフレームをイベントに変換するシミュレータが開発されており、実際のイベントデータセットの不足に対処している。
本稿では,イベントカメラにおける画素回路の詳細な解析に基づいて,信頼性の高いイベントデータを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-11-19T05:52:51Z) - Evaluating Image-Based Face and Eye Tracking with Event Cameras [9.677797822200965]
イベントカメラはニューロモルフィックセンサーとしても知られており、ピクセルレベルの局所光強度の変化を捉え、非同期に生成されたイベントと呼ばれるデータを生成する。
このデータフォーマットは、高速で動く物体を撮影する際のアンダーサンプリングのような、従来のカメラで観察される一般的な問題を緩和する。
我々は、従来のアルゴリズムとイベントベースのデータを統合することにより、フレーム形式に変換される可能性を評価する。
論文 参考訳(メタデータ) (2024-08-19T20:27:08Z) - A Novel Spike Transformer Network for Depth Estimation from Event Cameras via Cross-modality Knowledge Distillation [3.355813093377501]
イベントカメラは、非同期バイナリスパイクとして光強度の時間変化を符号化する。
従来の画像に基づく深度推定手法には、従来のスパイク出力とラベル付きデータセットの不足が大きな課題となっている。
本研究では, スパイキングデータのユニークな特性を利用して, 深度推定のための新しいエネルギー効率の高いスパイク駆動型トランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2024-04-26T11:32:53Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Event Camera Simulator Design for Modeling Attention-based Inference
Architectures [4.409836695738517]
本稿では,ハードウェア設計プロトタイピングのための強力なツールとなるイベントカメラシミュレータを提案する。
提案するシミュレータは,画像フレーム内の関連領域を特定する分散計算モデルを実装している。
実験の結果,シミュレータは低オーバーヘッドでイベントビジョンを効果的にエミュレートできることがわかった。
論文 参考訳(メタデータ) (2021-05-03T22:41:45Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z) - SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction [78.91518036949918]
本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
論文 参考訳(メタデータ) (2020-04-04T21:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。