論文の概要: Spring: A High-Resolution High-Detail Dataset and Benchmark for Scene
Flow, Optical Flow and Stereo
- arxiv url: http://arxiv.org/abs/2303.01943v1
- Date: Fri, 3 Mar 2023 14:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:47:03.447548
- Title: Spring: A High-Resolution High-Detail Dataset and Benchmark for Scene
Flow, Optical Flow and Stereo
- Title(参考訳): Spring: 高解像度高精細データセットとScene Flow, Optical Flow, Stereoのベンチマーク
- Authors: Lukas Mehl, Jenny Schmalfuss, Azin Jahedi, Yaroslava Nalivayko,
Andr\'es Bruhn
- Abstract要約: 我々は、シーンフロー、光学フロー、ステレオのための大型、高解像度、高精細、コンピュータ生成ベンチマークをSpring $-$で導入する。
オープンソースのBlender映画"Spring"のレンダリングシーンに基づいて、最先端の視覚効果と地上真実のトレーニングデータを備えた、フォトリアリスティックなHDデータセットを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While recent methods for motion and stereo estimation recover an
unprecedented amount of details, such highly detailed structures are neither
adequately reflected in the data of existing benchmarks nor their evaluation
methodology. Hence, we introduce Spring $-$ a large, high-resolution,
high-detail, computer-generated benchmark for scene flow, optical flow, and
stereo. Based on rendered scenes from the open-source Blender movie "Spring",
it provides photo-realistic HD datasets with state-of-the-art visual effects
and ground truth training data. Furthermore, we provide a website to upload,
analyze and compare results. Using a novel evaluation methodology based on a
super-resolved UHD ground truth, our Spring benchmark can assess the quality of
fine structures and provides further detailed performance statistics on
different image regions. Regarding the number of ground truth frames, Spring is
60$\times$ larger than the only scene flow benchmark, KITTI 2015, and
15$\times$ larger than the well-established MPI Sintel optical flow benchmark.
Initial results for recent methods on our benchmark show that estimating fine
details is indeed challenging, as their accuracy leaves significant room for
improvement. The Spring benchmark and the corresponding datasets are available
at http://spring-benchmark.org.
- Abstract(参考訳): 最近の動きとステレオ推定の手法は前例のない量の詳細を復元するが、これらの高精細な構造は既存のベンチマークや評価手法に十分に反映されていない。
したがって、我々は、シーンフロー、光学フロー、ステレオのための大型、高解像度、高精細、コンピュータ生成ベンチマークをSpring $-$で導入する。
オープンソースのBlender映画"Spring"のレンダリングシーンに基づいて、最先端の視覚効果と地上真実のトレーニングデータを備えた、フォトリアリスティックHDデータセットを提供する。
さらに、結果をアップロード、分析、比較するためのウェブサイトも提供します。
超解像UHD基底真理に基づく新しい評価手法を用いて、Springベンチマークは、微細構造の品質を評価し、異なる画像領域におけるさらなる詳細なパフォーマンス統計を提供する。
地上の真理フレームの数に関して、Springは唯一のシーンフローベンチマークであるKITTI 2015よりも60$\times$大きく、MPIシンテル光フローベンチマークよりも15$\times$大きい。
提案手法の最近の評価結果から,精度が改善の余地を残しているため,細部推定が極めて困難であることが示唆された。
Springベンチマークと対応するデータセットはhttp://spring-benchmark.orgで公開されている。
関連論文リスト
- TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - Re-Evaluating LiDAR Scene Flow for Autonomous Driving [80.37947791534985]
自己教師型LiDARシーンフローの一般的なベンチマークは、動的動き、非現実的な対応、非現実的なサンプリングパターンの非現実的な速度を持つ。
実世界のデータセットのスイート上で,トップメソッドのスイートを評価する。
学習に重点を置いているにもかかわらず、ほとんどのパフォーマンス向上は前処理と後処理のステップによって引き起こされる。
論文 参考訳(メタデータ) (2023-04-04T22:45:50Z) - BlinkFlow: A Dataset to Push the Limits of Event-based Optical Flow
Estimation [54.24083734729374]
イベントベース光フローのための大規模データを高速に生成するための新しいシミュレータBlinkSimを提案する。
BlinkSimに基づいて,大規模なトレーニングデータセットと評価ベンチマークBlinkFlowを構築した。
実験の結果、BlinkFlowは最先端手法の一般化性能を平均40%以上改善し、最大90%向上した。
論文 参考訳(メタデータ) (2023-03-14T09:03:54Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Information-Preserved Blending Method for Forward-Looking Sonar
Mosaicing in Non-Ideal System Configuration [2.494740426749958]
疑わしい情報を含む明確なFLSモザイクは、専門家が膨大な知覚データを扱うのを助けるために要求されている。
以前の作業では、FLSが理想的なシステム構成で機能しているとしか考えていなかった。
興味のある情報を保存できる新たなFLSモザイクブレンディング法を提案する。
論文 参考訳(メタデータ) (2022-12-10T05:53:00Z) - RAFT-MSF: Self-Supervised Monocular Scene Flow using Recurrent Optimizer [21.125470798719967]
本稿では,従来の手法に比べて精度が大幅に向上する自己教師付き単眼シーンフロー手法を提案する。
現状の光学フローモデルであるRAFTに基づいて、3次元運動場と不均一マップを同時に更新する新しいデコーダを設計する。
本手法は, 自己監督型単眼シーンフロー法における最先端の精度を実現し, 精度を34.2%向上させる。
論文 参考訳(メタデータ) (2022-05-03T15:43:57Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - The Little W-Net That Could: State-of-the-Art Retinal Vessel
Segmentation with Minimalistic Models [19.089445797922316]
数桁のパラメータが桁違いに少ない標準U-Netのミニマリストバージョンが、現在のベストプラクティスの性能を近似していることを示す。
また,W-Netと呼ばれる単純な拡張も提案する。
また、Artery/Veinセグメンテーション問題にもアプローチを試行し、その結果を最先端技術に整合させる。
論文 参考訳(メタデータ) (2020-09-03T19:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。