論文の概要: Spatiotemporal Deformation Perception for Fisheye Video Rectification
- arxiv url: http://arxiv.org/abs/2302.03934v1
- Date: Wed, 8 Feb 2023 08:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:57:04.971083
- Title: Spatiotemporal Deformation Perception for Fisheye Video Rectification
- Title(参考訳): 魚眼映像の時空間的変形知覚
- Authors: Shangrong Yang, Chunyu Lin, Kang Liao, Yao Zhao
- Abstract要約: 本稿では,時間重み付け方式を提案する。
魚眼と歪みのないビデオの流れによる空間的変形を導出する。
時間変形アグリゲータはフレーム間の変形相関を再構成するように設計されている。
- 参考スコア(独自算出の注目度): 44.332845280150785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the distortion correction of fisheye images has been extensively
studied, the correction of fisheye videos is still an elusive challenge. For
different frames of the fisheye video, the existing image correction methods
ignore the correlation of sequences, resulting in temporal jitter in the
corrected video. To solve this problem, we propose a temporal weighting scheme
to get a plausible global optical flow, which mitigates the jitter effect by
progressively reducing the weight of frames. Subsequently, we observe that the
inter-frame optical flow of the video is facilitated to perceive the local
spatial deformation of the fisheye video. Therefore, we derive the spatial
deformation through the flows of fisheye and distorted-free videos, thereby
enhancing the local accuracy of the predicted result. However, the independent
correction for each frame disrupts the temporal correlation. Due to the
property of fisheye video, a distorted moving object may be able to find its
distorted-free pattern at another moment. To this end, a temporal deformation
aggregator is designed to reconstruct the deformation correlation between
frames and provide a reliable global feature. Our method achieves an end-to-end
correction and demonstrates superiority in correction quality and stability
compared with the SOTA correction methods.
- Abstract(参考訳): 魚眼画像の歪み補正は広く研究されているが,魚眼映像の歪み補正はいまだに難しい課題である。
魚眼映像の異なるフレームに対して、既存の画像補正手法はシーケンスの相関を無視し、補正映像内の時間的ジッタを生じさせる。
そこで本研究では,フレームの重みを段階的に減らしてジッタ効果を緩和する,可塑性大域的光フローを得るための時間重み付け手法を提案する。
次に,魚眼映像の局所的空間的変形を知覚するために,映像のフレーム間光の流れが促進されることを観察する。
そこで,魚眼と歪みのない動画の流れによる空間的変形を導出し,予測結果の局所的精度を向上させる。
しかし,各フレームの独立補正は時間的相関を乱す。
魚眼ビデオの特性から、歪んだ物体は別の瞬間にその歪みのないパターンを見つけることができるかもしれない。
この目的のために、フレーム間の変形相関を再構築し、信頼性の高い大域的特徴を提供する時間変形集約器を設計する。
本手法は,SOTA補正法と比較して,補正品質と安定性が優れていることを示す。
関連論文リスト
- RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - Deep Rotation Correction without Angle Prior [57.76737888499145]
我々は,高コンテンツ忠実度で傾きを自動的に補正する,回転補正という新しい実用的タスクを提案する。
このタスクは画像編集アプリケーションに簡単に統合でき、ユーザーは手動操作なしで回転した画像を修正できる。
我々はニューラルネットワークを利用して、傾斜した画像を知覚的に水平に歪めることができる光学フローを予測する。
論文 参考訳(メタデータ) (2022-07-07T02:46:27Z) - Correcting Face Distortion in Wide-Angle Videos [85.88898349347149]
これらの歪みを補正するビデオワープアルゴリズムを提案する。
私たちのキーとなるアイデアは、顔領域に局所的に立体投影を適用することです。
性能評価のために,焦点距離の広い広角ビデオデータセットを開発した。
論文 参考訳(メタデータ) (2021-11-18T21:28:17Z) - Progressively Complementary Network for Fisheye Image Rectification
Using Appearance Flow [41.465257944454756]
歪み補正ネットワークにおける特徴レベルの補正方式を提案する。
我々は、補正層をスキップ接続に埋め込み、異なるレイヤの外観フローを利用して画像の特徴を事前に補正する。
コンテンツ再構成と構造補正を分離することにより、デコーダの負担を効果的に軽減する。
論文 参考訳(メタデータ) (2021-03-30T02:11:38Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - UnRectDepthNet: Self-Supervised Monocular Depth Estimation using a
Generic Framework for Handling Common Camera Distortion Models [8.484676769284578]
本研究では,未修正単眼ビデオから深度,ユークリッド距離,および視覚計測を推定するための,汎用的な規模対応型自己教師パイプラインを提案する。
提案アルゴリズムは,KITTI修正データセットでさらに評価され,最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-07-13T20:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。