論文の概要: EvtSlowTV - A Large and Diverse Dataset for Event-Based Depth Estimation
- arxiv url: http://arxiv.org/abs/2511.02953v1
- Date: Tue, 04 Nov 2025 19:56:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.228997
- Title: EvtSlowTV - A Large and Diverse Dataset for Event-Based Depth Estimation
- Title(参考訳): EvtSlowTV - イベントベース奥行き推定のための大規模で多様なデータセット
- Authors: Sadiq Layi Macaulay, Nimet Kaygusuz, Simon Hadfield,
- Abstract要約: EvtSlowTVは、一般公開されたYouTubeビデオからキュレートされた大規模なイベントカメラデータセットである。
この研究は、生イベントストリームのHDRポテンシャルを活かす自己教師付き学習フレームワークとして、EvtSlowTVが適していることを示す。
- 参考スコア(独自算出の注目度): 9.039910084106921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras, with their high dynamic range (HDR) and low latency, offer a promising alternative for robust depth estimation in challenging environments. However, many event-based depth estimation approaches are constrained by small-scale annotated datasets, limiting their generalizability to real-world scenarios. To bridge this gap, we introduce EvtSlowTV, a large-scale event camera dataset curated from publicly available YouTube footage, which contains more than 13B events across various environmental conditions and motions, including seasonal hiking, flying, scenic driving, and underwater exploration. EvtSlowTV is an order of magnitude larger than existing event datasets, providing an unconstrained, naturalistic setting for event-based depth learning. This work shows the suitability of EvtSlowTV for a self-supervised learning framework to capitalise on the HDR potential of raw event streams. We further demonstrate that training with EvtSlowTV enhances the model's ability to generalise to complex scenes and motions. Our approach removes the need for frame-based annotations and preserves the asynchronous nature of event data.
- Abstract(参考訳): イベントカメラは、ハイダイナミックレンジ(HDR)と低レイテンシを備え、挑戦的な環境で堅牢な深さ推定の代替として有望な手段を提供する。
しかし、多くのイベントベースの深さ推定アプローチは、小さなアノテートされたデータセットによって制約され、それらの一般化可能性を現実のシナリオに制限する。
このギャップを埋めるために、私たちはEvtSlowTVを紹介します。EvtSlowTVは、公開されているYouTubeビデオから収集された大規模なイベントカメラデータセットで、季節的なハイキング、飛行、景色の運転、水中探索など、さまざまな環境条件と動きの13Bイベントを含む。
EvtSlowTVは、既存のイベントデータセットよりも桁違いに大きく、イベントベースの深度学習のための制約のない、自然な設定を提供する。
この研究は、生イベントストリームのHDRポテンシャルを活かす自己教師付き学習フレームワークとして、EvtSlowTVが適していることを示す。
さらに、EvtSlowTVを用いたトレーニングにより、複雑なシーンや動きに一般化するモデルの能力が向上することを示す。
このアプローチでは、フレームベースのアノテーションの必要性を排除し、イベントデータの非同期性を保存する。
関連論文リスト
- Depth AnyEvent: A Cross-Modal Distillation Paradigm for Event-Based Monocular Depth Estimation [47.90167568304715]
イベントカメラは、スパースで高時間解像度の視覚情報をキャプチャする。
深層深度アノテーションによる大規模データセットの欠如は、イベントデータから学習に基づく単眼深度推定を妨げている。
ビジョンファウンデーションモデル(VFM)を利用した高密度プロキシラベル生成のためのクロスモーダル蒸留パラダイムを提案する。
我々の戦略は、RGBフレームに空間的に整合したイベントストリーム、利用可能なオフザシェルフの簡単なセットアップ、大規模VFMの堅牢性を活用することが必要である。
論文 参考訳(メタデータ) (2025-09-18T17:59:51Z) - ROVR-Open-Dataset: A Large-Scale Depth Dataset for Autonomous Driving [62.9051914830949]
実世界の運転の複雑さを捉えるために設計された,大規模で多様で費用効率のよい深度データセットであるROVRを提案する。
軽量な取得パイプラインは、スケーラブルなコレクションを保証すると同時に、統計的に十分な基礎的真実は堅牢なトレーニングをサポートする。
最先端の単分子深度モデルによるベンチマークでは、厳密なクロスデータセットの一般化失敗が示される。
論文 参考訳(メタデータ) (2025-08-19T16:13:49Z) - EvLight++: Low-Light Video Enhancement with an Event Camera: A Large-Scale Real-World Dataset, Novel Method, and More [7.974102031202597]
EvLight++は、現実のシナリオで堅牢なパフォーマンスのために設計された、イベント誘導型低照度ビデオ拡張アプローチである。
EvLight++は1.37dBと3.71dBの2つのイメージベースとビデオベースの両方で大幅に性能が向上した。
論文 参考訳(メタデータ) (2024-08-29T04:30:31Z) - An Event-Oriented Diffusion-Refinement Method for Sparse Events
Completion [36.64856578682197]
イベントカメラまたはダイナミックビジョンセンサー(DVS)は、従来の強度フレームの代わりに輝度の変化に対する非同期応答を記録する。
本稿では,処理段階と出力形態の両方において,イベントデータのユニークな特性に適合するイベント完了シーケンス手法を提案する。
具体的には,イベントストリームを時間領域内の3次元イベントクラウドとして扱うとともに,高密度の雲を粗大に生成する拡散モデルを構築し,正確なタイムスタンプを復元して生データの時間分解を成功させる。
論文 参考訳(メタデータ) (2024-01-06T08:09:54Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。