論文の概要: Spring: A High-Resolution High-Detail Dataset and Benchmark for Scene
Flow, Optical Flow and Stereo
- arxiv url: http://arxiv.org/abs/2303.01943v1
- Date: Fri, 3 Mar 2023 14:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:47:03.447548
- Title: Spring: A High-Resolution High-Detail Dataset and Benchmark for Scene
Flow, Optical Flow and Stereo
- Title(参考訳): Spring: 高解像度高精細データセットとScene Flow, Optical Flow, Stereoのベンチマーク
- Authors: Lukas Mehl, Jenny Schmalfuss, Azin Jahedi, Yaroslava Nalivayko,
Andr\'es Bruhn
- Abstract要約: 我々は、シーンフロー、光学フロー、ステレオのための大型、高解像度、高精細、コンピュータ生成ベンチマークをSpring $-$で導入する。
オープンソースのBlender映画"Spring"のレンダリングシーンに基づいて、最先端の視覚効果と地上真実のトレーニングデータを備えた、フォトリアリスティックなHDデータセットを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While recent methods for motion and stereo estimation recover an
unprecedented amount of details, such highly detailed structures are neither
adequately reflected in the data of existing benchmarks nor their evaluation
methodology. Hence, we introduce Spring $-$ a large, high-resolution,
high-detail, computer-generated benchmark for scene flow, optical flow, and
stereo. Based on rendered scenes from the open-source Blender movie "Spring",
it provides photo-realistic HD datasets with state-of-the-art visual effects
and ground truth training data. Furthermore, we provide a website to upload,
analyze and compare results. Using a novel evaluation methodology based on a
super-resolved UHD ground truth, our Spring benchmark can assess the quality of
fine structures and provides further detailed performance statistics on
different image regions. Regarding the number of ground truth frames, Spring is
60$\times$ larger than the only scene flow benchmark, KITTI 2015, and
15$\times$ larger than the well-established MPI Sintel optical flow benchmark.
Initial results for recent methods on our benchmark show that estimating fine
details is indeed challenging, as their accuracy leaves significant room for
improvement. The Spring benchmark and the corresponding datasets are available
at http://spring-benchmark.org.
- Abstract(参考訳): 最近の動きとステレオ推定の手法は前例のない量の詳細を復元するが、これらの高精細な構造は既存のベンチマークや評価手法に十分に反映されていない。
したがって、我々は、シーンフロー、光学フロー、ステレオのための大型、高解像度、高精細、コンピュータ生成ベンチマークをSpring $-$で導入する。
オープンソースのBlender映画"Spring"のレンダリングシーンに基づいて、最先端の視覚効果と地上真実のトレーニングデータを備えた、フォトリアリスティックHDデータセットを提供する。
さらに、結果をアップロード、分析、比較するためのウェブサイトも提供します。
超解像UHD基底真理に基づく新しい評価手法を用いて、Springベンチマークは、微細構造の品質を評価し、異なる画像領域におけるさらなる詳細なパフォーマンス統計を提供する。
地上の真理フレームの数に関して、Springは唯一のシーンフローベンチマークであるKITTI 2015よりも60$\times$大きく、MPIシンテル光フローベンチマークよりも15$\times$大きい。
提案手法の最近の評価結果から,精度が改善の余地を残しているため,細部推定が極めて困難であることが示唆された。
Springベンチマークと対応するデータセットはhttp://spring-benchmark.orgで公開されている。
関連論文リスト
- BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - DepthFM: Fast Monocular Depth Estimation with Flow Matching [22.206355073676082]
この問題に対する現在の差別的アプローチは、ぼやけた人工物のために限られている。
最先端の生成法は、SDEの性質上、サンプリングが遅い。
解空間を通した直線軌道は効率と高品質を提供するので,フローマッチングを用いて効果的にフレーム化することができる。
論文 参考訳(メタデータ) (2024-03-20T17:51:53Z) - TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - Re-Evaluating LiDAR Scene Flow for Autonomous Driving [80.37947791534985]
自己教師型LiDARシーンフローの一般的なベンチマークは、動的動き、非現実的な対応、非現実的なサンプリングパターンの非現実的な速度を持つ。
実世界のデータセットのスイート上で,トップメソッドのスイートを評価する。
学習に重点を置いているにもかかわらず、ほとんどのパフォーマンス向上は前処理と後処理のステップによって引き起こされる。
論文 参考訳(メタデータ) (2023-04-04T22:45:50Z) - BlinkFlow: A Dataset to Push the Limits of Event-based Optical Flow Estimation [76.66876888943385]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジ視覚知覚を提供する。
イベントベース光フローのための大規模データを高速に生成するための新しいシミュレータBlinkSimを提案する。
論文 参考訳(メタデータ) (2023-03-14T09:03:54Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Information-Preserved Blending Method for Forward-Looking Sonar
Mosaicing in Non-Ideal System Configuration [2.494740426749958]
疑わしい情報を含む明確なFLSモザイクは、専門家が膨大な知覚データを扱うのを助けるために要求されている。
以前の作業では、FLSが理想的なシステム構成で機能しているとしか考えていなかった。
興味のある情報を保存できる新たなFLSモザイクブレンディング法を提案する。
論文 参考訳(メタデータ) (2022-12-10T05:53:00Z) - RAFT-MSF: Self-Supervised Monocular Scene Flow using Recurrent Optimizer [21.125470798719967]
本稿では,従来の手法に比べて精度が大幅に向上する自己教師付き単眼シーンフロー手法を提案する。
現状の光学フローモデルであるRAFTに基づいて、3次元運動場と不均一マップを同時に更新する新しいデコーダを設計する。
本手法は, 自己監督型単眼シーンフロー法における最先端の精度を実現し, 精度を34.2%向上させる。
論文 参考訳(メタデータ) (2022-05-03T15:43:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。