論文の概要: GPU Accelerated Color Correction and Frame Warping for Real-time Video
Stitching
- arxiv url: http://arxiv.org/abs/2308.09209v1
- Date: Thu, 17 Aug 2023 23:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 15:16:12.520392
- Title: GPU Accelerated Color Correction and Frame Warping for Real-time Video
Stitching
- Title(参考訳): リアルタイムビデオストレッチのためのGPUアクセラレーション色補正とフレームワープ
- Authors: Lu Yang, Zhenglun Kong, Ting Li, Xinyi Bai, Zhiye Lin, Hong Cheng
- Abstract要約: 伝統的な画像ステッチは、ビデオの空間的時間的一貫性を考慮せずに、単一のパノラマフレームに焦点を当てている。
本論文では,複数のビデオシーケンスをパノラマ映像シーケンスに縫合するリアルタイムシステムを提案する。
- 参考スコア(独自算出の注目度): 11.145471040390268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional image stitching focuses on a single panorama frame without
considering the spatial-temporal consistency in videos. The straightforward
image stitching approach will cause temporal flicking and color inconstancy
when it is applied to the video stitching task. Besides, inaccurate camera
parameters will cause artifacts in the image warping. In this paper, we propose
a real-time system to stitch multiple video sequences into a panoramic video,
which is based on GPU accelerated color correction and frame warping without
accurate camera parameters. We extend the traditional 2D-Matrix (2D-M) color
correction approach and a present spatio-temporal 3D-Matrix (3D-M) color
correction method for the overlap local regions with online color balancing
using a piecewise function on global frames. Furthermore, we use pairwise
homography matrices given by coarse camera calibration for global warping
followed by accurate local warping based on the optical flow. Experimental
results show that our system can generate highquality panorama videos in real
time.
- Abstract(参考訳): 伝統的な画像ステッチは、ビデオの空間的時間的一貫性を考慮せずに、単一のパノラマフレームに焦点を当てている。
簡単な画像縫合アプローチは、ビデオ縫合作業に適用した場合、時間的ひねりや色の不一致を引き起こす。
さらに、不正確なカメラパラメータが画像の歪みの原因となる。
本稿では,複数のビデオシーケンスをパノラマビデオに縫合するリアルタイムシステムを提案する。
従来型の2D-Matrix(2D-M)色補正手法と,グローバルフレーム上の断片的関数を用いたオンライン色バランスによる重なり合う局所領域に対する時空間3D-Matrix(3D-M)色補正手法を拡張した。
さらに、粗いカメラキャリブレーションによって与えられるペアワイズホモグラフィ行列を大域的なワープに使用し、光学的フローに基づいて正確な局所ワープを行う。
実験の結果,本システムは高品質のパノラマ映像をリアルタイムで生成できることがわかった。
関連論文リスト
- eWand: A calibration framework for wide baseline frame-based and
event-based camera systems [12.590158763556186]
印刷または表示されたパターンの代わりに不透明な球体内でLEDを点滅させる新しい方法であるeWandを提案する。
本手法は,イベントベースカメラとフレームベースカメラの両方において,高精度なキャリブレーション手法を実現する。
論文 参考訳(メタデータ) (2023-09-22T07:51:17Z) - 3D Motion Magnification: Visualizing Subtle Motions with Time Varying
Radiance Fields [58.6780687018956]
本研究では,移動カメラが捉えたシーンからの微妙な動きを拡大できる3次元運動倍率法を提案する。
時間変化のラディアンス場を用いてシーンを表現し、運動倍率のユーレリア原理を利用する。
我々は,様々なカメラ装置で撮影した合成シーンと実世界のシーンの両方において,本手法の有効性を評価する。
論文 参考訳(メタデータ) (2023-08-07T17:59:59Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - Spatiotemporal Deformation Perception for Fisheye Video Rectification [44.332845280150785]
本稿では,時間重み付け方式を提案する。
魚眼と歪みのないビデオの流れによる空間的変形を導出する。
時間変形アグリゲータはフレーム間の変形相関を再構成するように設計されている。
論文 参考訳(メタデータ) (2023-02-08T08:17:50Z) - Video Frame Interpolation without Temporal Priors [91.04877640089053]
ビデオフレームは、既存の中間フレームをビデオシーケンスで合成することを目的としている。
フレーム/秒(FPS)やフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
我々は、より良い合成結果を得るために、新しい光フロー改善戦略を考案する。
論文 参考訳(メタデータ) (2021-12-02T12:13:56Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Consistent Depth of Moving Objects in Video [52.72092264848864]
移動カメラで撮影した通常の映像から任意の移動物体を含む動的シーンの深さを推定する手法を提案する。
我々は、この目的を、深度予測CNNを入力ビデオ全体にわたって補助的なシーンフロー予測でタンデムで訓練する新しいテストタイムトレーニングフレームワークで定式化する。
我々は、さまざまな移動物体(ペット、人、車)とカメラの動きを含む様々な挑戦的なビデオに対して、正確かつ時間的に一貫性のある結果を示す。
論文 参考訳(メタデータ) (2021-08-02T20:53:18Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。