論文の概要: UEOF: A Benchmark Dataset for Underwater Event-Based Optical Flow
- arxiv url: http://arxiv.org/abs/2601.10054v1
- Date: Thu, 15 Jan 2026 04:10:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.982417
- Title: UEOF: A Benchmark Dataset for Underwater Event-Based Optical Flow
- Title(参考訳): UEOF: 水中イベントベース光学流れのベンチマークデータセット
- Authors: Nick Truong, Pritam P. Karmokar, William J. Beksi,
- Abstract要約: 物理量に基づくRGBDシークエンスから導かれるイベントベース光フローのための,最初の合成水中ベンチマークデータセットについて紹介する。
我々は、水中光輸送がイベント形成と動き推定精度にどのように影響するかを理解するために、最先端の学習ベースおよびモデルベースの光フロー予測手法をベンチマークした。
本データセットは,水中イベントベース認識アルゴリズムの今後の開発と評価のための新たなベースラインを確立する。
- 参考スコア(独自算出の注目度): 6.553956273453576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater imaging is fundamentally challenging due to wavelength-dependent light attenuation, strong scattering from suspended particles, turbidity-induced blur, and non-uniform illumination. These effects impair standard cameras and make ground-truth motion nearly impossible to obtain. On the other hand, event cameras offer microsecond resolution and high dynamic range. Nonetheless, progress on investigating event cameras for underwater environments has been limited due to the lack of datasets that pair realistic underwater optics with accurate optical flow. To address this problem, we introduce the first synthetic underwater benchmark dataset for event-based optical flow derived from physically-based ray-traced RGBD sequences. Using a modern video-to-event pipeline applied to rendered underwater videos, we produce realistic event data streams with dense ground-truth flow, depth, and camera motion. Moreover, we benchmark state-of-the-art learning-based and model-based optical flow prediction methods to understand how underwater light transport affects event formation and motion estimation accuracy. Our dataset establishes a new baseline for future development and evaluation of underwater event-based perception algorithms. The source code and dataset for this project are publicly available at https://robotic-vision-lab.github.io/ueof.
- Abstract(参考訳): 水中イメージングは、波長依存性の光減衰、懸濁粒子からの強い散乱、濁度によって引き起こされるぼかし、および均一でない照明により、基本的に困難である。
これらの効果は標準的なカメラを損なうとともに、地上の真直ぐな動きをほぼ不可能にしている。
一方、イベントカメラはマイクロ秒分解能と高ダイナミックレンジを提供する。
それにもかかわらず、水中環境のイベントカメラの進歩は、リアルな水中光学と正確な光の流れを合わせるデータセットが不足しているため、制限されている。
この問題に対処するために、物理的に線量的RGBD配列から導かれるイベントベース光フローのための、最初の合成水中ベンチマークデータセットを導入する。
水中でレンダリングされたビデオに応用した最新のビデオ・ツー・イベント・パイプラインを用いて、深度、深度、カメラの動きが密集したリアルなイベントデータストリームを生成する。
さらに,水中光輸送がイベント生成および動き推定精度にどのように影響するかを理解するために,最先端の学習ベースおよびモデルベース光フロー予測手法をベンチマークした。
本データセットは,水中イベントベース認識アルゴリズムの今後の開発と評価のための新たなベースラインを確立する。
このプロジェクトのソースコードとデータセットはhttps://robotic-vision-lab.github.io/ueof.comで公開されている。
関連論文リスト
- EREBUS: End-to-end Robust Event Based Underwater Simulation [12.65103321991945]
本稿では,AUVに搭載されたイベントベースカメラのリアルな合成データを生成するパイプラインを提案する。
可視性が悪く,粒子状物質が懸濁した岩盤検出のタスクを用いて,パイプラインの有効性を実証した。
論文 参考訳(メタデータ) (2025-11-03T09:28:48Z) - Improving Unsupervised Video Object Segmentation via Fake Flow Generation [20.89278343723177]
本稿では,単一画像からの擬似光フローをシミュレートする新しいデータ生成手法を提案する。
光フローマップは深度マップに大きく依存していることから着想を得て,各画像の深度マップを精細化し,拡大することにより,偽の光フローを生成する。
論文 参考訳(メタデータ) (2024-07-16T13:32:50Z) - Event-based Background-Oriented Schlieren [18.2247510082534]
シュリーレンイメージング(Schlieren imaging)は、空気や水などの透明な媒体の流れを粒子の種を作らずに観察する光学技術である。
イベントカメラは、バイオインスパイアされたセンシング原理により、そのような制限を克服する潜在的な利点(高ダイナミックレンジ、高時間分解能、データ効率)を提供する。
本稿では,イベントデータとシュリエレンを結合する最初の理論的解析を行い,イベントとフレームを用いた空気対流の知覚手法を提案する。
論文 参考訳(メタデータ) (2023-11-01T10:57:20Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Towards Anytime Optical Flow Estimation with Event Cameras [37.892840680923584]
イベントカメラはミリ秒レベルでの対数輝度の変化に反応し、光フロー推定に最適である。
既存のイベントカメラからのデータセットは、光学フローに対して低フレームレートの地上真実を提供するのみである。
本研究では,高フレームレートのイベント光流を生成するEVent-based Anytime Flow推定ネットワークであるEVA-Flowを提案する。
論文 参考訳(メタデータ) (2023-07-11T06:15:12Z) - BlinkFlow: A Dataset to Push the Limits of Event-based Optical Flow Estimation [76.66876888943385]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジ視覚知覚を提供する。
イベントベース光フローのための大規模データを高速に生成するための新しいシミュレータBlinkSimを提案する。
論文 参考訳(メタデータ) (2023-03-14T09:03:54Z) - Dimensions of Motion: Learning to Predict a Subspace of Optical Flow
from a Single Image [50.9686256513627]
本稿では,1つのビデオフレームから,実際の瞬時光フローを含む低次元の光フローのサブスペースを予測する問題を紹介する。
いくつかの自然シーンの仮定によって、不均一性によってパラメータ化されたベースフローフィールドの集合を通して、適切なフロー部分空間を特定できることを示す。
これは、カメラの内在やポーズを必要とせずに、単眼入力ビデオを使用して教師なしの方法でこれらのタスクを学習する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-12-02T18:52:54Z) - SCFlow: Optical Flow Estimation for Spiking Camera [50.770803466875364]
スパイキングカメラは、特に高速シーンのモーション推定において、現実の応用において大きな可能性を秘めている。
光フロー推定は画像ベースおよびイベントベースの視覚において顕著な成功を収めているが、既存の手法はスパイクカメラからのスパイクストリームに直接適用することはできない。
本稿では、スパイキングカメラのための光フロー推定のための新しいディープラーニングパイプラインSCFlowについて述べる。
論文 参考訳(メタデータ) (2021-10-08T06:16:45Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。