論文の概要: A data set providing synthetic and real-world fisheye video sequences
- arxiv url: http://arxiv.org/abs/2211.17030v1
- Date: Wed, 30 Nov 2022 14:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 18:00:03.949877
- Title: A data set providing synthetic and real-world fisheye video sequences
- Title(参考訳): 合成および実世界の魚眼映像シーケンスを提供するデータセット
- Authors: Andrea Eichenseer and Andr\'e Kaup
- Abstract要約: ビデオ監視や自動車の応用では、いわゆる魚眼カメラが、非常に広い視野を捉えていることが多い。
得られた魚眼画像および映像データは、直線的でない画像特性を示す。
魚眼画像や動画に特化して適応するアルゴリズムを開発・評価するために,本論文では,対応するテストデータセットについて紹介する。
- 参考スコア(独自算出の注目度): 1.1574235466142833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In video surveillance as well as automotive applications, so-called fisheye
cameras are often employed to capture a very wide angle of view. As such
cameras depend on projections quite different from the classical perspective
projection, the resulting fisheye image and video data correspondingly exhibits
non-rectilinear image characteristics. Typical image and video processing
algorithms, however, are not designed for these fisheye characteristics. To be
able to develop and evaluate algorithms specifically adapted to fisheye images
and videos, a corresponding test data set is therefore introduced in this
paper. The first of those sequences were generated during the authors' own work
on motion estimation for fish-eye videos and further sequences have gradually
been added to create a more extensive collection. The data set now comprises
synthetically generated fisheye sequences, ranging from simple patterns to more
complex scenes, as well as fisheye video sequences captured with an actual
fisheye camera. For the synthetic sequences, exact information on the lens
employed is available, thus facilitating both verification and evaluation of
any adapted algorithms. For the real-world sequences, we provide calibration
data as well as the settings used during acquisition. The sequences are freely
available via www.lms.lnt.de/fisheyedataset/.
- Abstract(参考訳): ビデオ監視や自動車の応用では、いわゆる魚眼カメラが、非常に広い視野を捉えていることが多い。
このようなカメラは、古典的な視点投影とは全く異なる投影に依存するため、得られた魚眼画像と映像データは、非線形な画像特性を示す。
しかし、一般的な画像および映像処理アルゴリズムは、これらの魚眼特性のために設計されていない。
そこで本論文では,魚眼画像や映像に適応したアルゴリズムを開発・評価するために,対応するテストデータセットを導入する。
最初のシーケンスは、魚眼ビデオの動作推定に関する著者自身の研究中に生成され、より広範なコレクションを作成するために、徐々に追加されている。
データセットは、単純なパターンからより複雑なシーンまで、合成生成された魚眼シーケンスと、実際の魚眼カメラでキャプチャされた魚眼ビデオシーケンスで構成されている。
合成シーケンスでは、採用したレンズの正確な情報が得られるため、任意の適応アルゴリズムの検証と評価が容易になる。
実世界のシーケンスに対しては、キャリブレーションデータと、取得時に使用する設定を提供する。
シーケンスはwww.lms.lnt.de/fisheyedataset/で自由に利用できる。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Fisheye-GS: Lightweight and Extensible Gaussian Splatting Module for Fisheye Cameras [17.75361921797657]
魚眼カメラのプロジェクション変換と勾配を再現する新しい手法である魚眼-GSを紹介する。
我々の手法は他の効率的な3Dレンダリング手法にモジュールとしてシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-09-07T07:53:40Z) - SONIC: Sonar Image Correspondence using Pose Supervised Learning for Imaging Sonars [21.36164161799472]
我々は,視点変化に耐えられる頑健な特徴対応を実現するために設計されたポーズ制御ネットワークSONICを紹介する。
本手法は,ソナー画像の対応生成における性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-10-23T15:21:46Z) - SimFIR: A Simple Framework for Fisheye Image Rectification with
Self-supervised Representation Learning [105.01294305972037]
自己教師型表現学習に基づく魚眼画像修正のためのフレームワークであるSimFIRを紹介する。
まず魚眼画像を複数のパッチに分割し,その表現を視覚変換器で抽出する。
下流修正作業における転送性能が著しく向上し、学習された表現の有効性が検証される。
論文 参考訳(メタデータ) (2023-08-17T15:20:17Z) - Spatiotemporal Deformation Perception for Fisheye Video Rectification [44.332845280150785]
本稿では,時間重み付け方式を提案する。
魚眼と歪みのないビデオの流れによる空間的変形を導出する。
時間変形アグリゲータはフレーム間の変形相関を再構成するように設計されている。
論文 参考訳(メタデータ) (2023-02-08T08:17:50Z) - Self-Supervised Camera Self-Calibration from Video [34.35533943247917]
汎用カメラモデルの効率的なファミリーを用いてシーケンスごとのキャリブレーションパラメータを回帰する学習アルゴリズムを提案する。
提案手法は,サブピクセル再投射誤差による自己校正を行い,他の学習手法よりも優れる。
論文 参考訳(メタデータ) (2021-12-06T19:42:05Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - FisheyeSuperPoint: Keypoint Detection and Description Network for
Fisheye Images [2.187613144178315]
キーポイントの検出と記述はコンピュータビジョンシステムで一般的に使用されるビルディングブロックである。
SuperPointは、ホモグラフィー推定における最先端の結果を達成した自己監視型キーポイント検出器およびディスクリプタです。
本稿では,魚眼画像の学習を可能にする魚眼適応パイプラインを提案する。
論文 参考訳(メタデータ) (2021-02-27T11:26:34Z) - Sampling Based Scene-Space Video Processing [89.49726406622842]
ビデオ処理のための新しいサンプリングベースのフレームワークを提案する。
奥行きのミスやカメラのポーズ推定がある場合、高品質なシーン空間ビデオ効果を可能にする。
カジュアルにキャプチャーされた、手持ちの、動く、圧縮された、モノラルなビデオの結果を提示する。
論文 参考訳(メタデータ) (2021-02-05T05:55:04Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。