論文の概要: A Novel Viewport-Adaptive Motion Compensation Technique for Fisheye
Video
- arxiv url: http://arxiv.org/abs/2202.13892v1
- Date: Mon, 28 Feb 2022 15:41:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:28:29.215984
- Title: A Novel Viewport-Adaptive Motion Compensation Technique for Fisheye
Video
- Title(参考訳): 魚眼ビデオのための新しいビューポート適応型モーション補償技術
- Authors: Andy Regensky, Christian Herglotz, Andr\'e Kaup
- Abstract要約: 最近提案された投射に基づくアプローチは、魚眼運動補償を改善するために、魚眼投射を考慮に入れている。
本稿では,異なる視点のビューポートに移動ベクトルを適用したビューポート適応型モーション補償手法を提案する。
魚眼運動補償における技量と比較すると,PSNRでは+2.40dBの平均利得が得られる。
- 参考スコア(独自算出の注目度): 7.09875977818162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although fisheye cameras are in high demand in many application areas due to
their large field of view, many image and video signal processing tasks such as
motion compensation suffer from the introduced strong radial distortions. A
recently proposed projection-based approach takes the fisheye projection into
account to improve fisheye motion compensation. However, the approach does not
consider the large field of view of fisheye lenses that requires the
consideration of different motion planes in 3D space. We propose a novel
viewport-adaptive motion compensation technique that applies the motion vectors
in different perspective viewports in order to realize these motion planes.
Thereby, some pixels are mapped to so-called virtual image planes and require
special treatment to obtain reliable mappings between the perspective viewports
and the original fisheye image. While the state-of-the-art ultra wide-angle
compensation is sufficiently accurate, we propose a virtual image plane
compensation that leads to perfect mappings. All in all, we achieve average
gains of +2.40 dB in terms of PSNR compared to the state of the art in fisheye
motion compensation.
- Abstract(参考訳): 魚眼カメラはその視野が大きいため多くの応用分野において需要が高いが、動き補償などの画像・映像信号処理タスクは強力な放射歪みに悩まされている。
最近提案された投射に基づくアプローチは、魚眼運動補償を改善するために魚眼投射を考慮に入れている。
しかし,本手法では3次元空間における異なる運動面の考慮を必要とする魚眼レンズの広い視野を考慮しない。
本研究では,これらの動き面を実現するために,異なる視点の視点で動きベクトルを適用する新しいビューポート適応運動補償手法を提案する。
これにより、一部の画素はいわゆる仮想画像平面にマッピングされ、視点ビューポートと元の魚眼画像との間の信頼できるマッピングを得るために特別な処理が必要となる。
最先端の超広角補償は十分精度が高いが,完全なマッピングを実現する仮想画像平面補償を提案する。
総じて、魚眼運動補償の技量と比較すると、PSNRでは+2.40dBの平均利得が得られる。
関連論文リスト
- Fisheye-GS: Lightweight and Extensible Gaussian Splatting Module for Fisheye Cameras [17.75361921797657]
魚眼カメラのプロジェクション変換と勾配を再現する新しい手法である魚眼-GSを紹介する。
我々の手法は他の効率的な3Dレンダリング手法にモジュールとしてシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-09-07T07:53:40Z) - RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - Cinematic Behavior Transfer via NeRF-based Differentiable Filming [63.1622492808519]
既存のSLAM手法は動的シーンの制限に直面し、人間のポーズ推定はしばしば2次元投影に焦点を当てる。
まず,逆撮影行動推定手法を提案する。
次に,新しい2Dビデオや3D仮想環境に様々な撮影タイプを転送できる映像転送パイプラインを導入する。
論文 参考訳(メタデータ) (2023-11-29T15:56:58Z) - 3D Motion Magnification: Visualizing Subtle Motions with Time Varying
Radiance Fields [58.6780687018956]
本研究では,移動カメラが捉えたシーンからの微妙な動きを拡大できる3次元運動倍率法を提案する。
時間変化のラディアンス場を用いてシーンを表現し、運動倍率のユーレリア原理を利用する。
我々は,様々なカメラ装置で撮影した合成シーンと実世界のシーンの両方において,本手法の有効性を評価する。
論文 参考訳(メタデータ) (2023-08-07T17:59:59Z) - Depth Estimation Analysis of Orthogonally Divergent Fisheye Cameras with
Distortion Removal [0.0]
伝統的なステレオビジョンシステムは、視野が限られているため、特定のシナリオには適さないかもしれない。
魚眼カメラは、ステレオマッチングと深さ推定の精度に影響を与えるエッジの歪みを生じさせる。
本稿では,ステレオビジョンシステムにおける歪み除去・深さ推定法を提案する。
論文 参考訳(メタデータ) (2023-07-07T13:44:12Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Consistent Depth of Moving Objects in Video [52.72092264848864]
移動カメラで撮影した通常の映像から任意の移動物体を含む動的シーンの深さを推定する手法を提案する。
我々は、この目的を、深度予測CNNを入力ビデオ全体にわたって補助的なシーンフロー予測でタンデムで訓練する新しいテストタイムトレーニングフレームワークで定式化する。
我々は、さまざまな移動物体(ペット、人、車)とカメラの動きを含む様々な挑戦的なビデオに対して、正確かつ時間的に一貫性のある結果を示す。
論文 参考訳(メタデータ) (2021-08-02T20:53:18Z) - Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras [3.485767750936058]
多次元ベクトルは、異なる次元と段階で生成される有効情報を含むことが提案されている。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることが実証された。
論文 参考訳(メタデータ) (2021-07-19T13:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。