論文の概要: Real-Time Selfie Video Stabilization
- arxiv url: http://arxiv.org/abs/2009.02007v2
- Date: Wed, 16 Jun 2021 22:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 02:09:28.477181
- Title: Real-Time Selfie Video Stabilization
- Title(参考訳): リアルタイム自撮りビデオの安定化
- Authors: Jiyang Yu, Ravi Ramamoorthi, Keli Cheng, Michel Sarkis, Ning Bi
- Abstract要約: 本稿では,リアルタイムのセルフィー動画安定化手法を提案する。
私たちの方法は完全に自動で、26fpsで動作します。
従来のオフラインの自撮りビデオ手法と比較して、我々の手法は桁違いの速度向上と同等の画質が得られる。
- 参考スコア(独自算出の注目度): 47.228417712587934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel real-time selfie video stabilization method. Our method is
completely automatic and runs at 26 fps. We use a 1D linear convolutional
network to directly infer the rigid moving least squares warping which
implicitly balances between the global rigidity and local flexibility. Our
network structure is specifically designed to stabilize the background and
foreground at the same time, while providing optional control of stabilization
focus (relative importance of foreground vs. background) to the users. To train
our network, we collect a selfie video dataset with 1005 videos, which is
significantly larger than previous selfie video datasets. We also propose a
grid approximation method to the rigid moving least squares warping that
enables the real-time frame warping. Our method is fully automatic and produces
visually and quantitatively better results than previous real-time general
video stabilization methods. Compared to previous offline selfie video methods,
our approach produces comparable quality with a speed improvement of orders of
magnitude.
- Abstract(参考訳): リアルタイムのセルフィー動画安定化手法を提案する。
私たちの方法は完全に自動で、26fpsで動作します。
我々は,1次元線形畳み込みネットワークを用いて,大域的剛性と局所的柔軟性の間に暗黙的にバランスをとる剛体移動最小二乗乱れを直接推定する。
我々のネットワーク構造は、ユーザに対して安定化焦点(フォアグラウンドとフォアグラウンドの相対的重要性)を任意に制御しながら、背景とフォアグラウンドを同時に安定させるように設計されている。
ネットワークをトレーニングするために、従来の自撮りビデオデータセットよりもはるかに大きい1005ビデオの自撮りビデオデータセットを収集します。
また,実時間フレーム・ワープが可能な剛性移動最小二乗演算に対する格子近似法を提案する。
提案手法は完全に自動化され,従来よりも視覚的,定量的に優れた結果が得られる。
従来のオフラインの自撮りビデオ手法と比較して、我々の手法は桁違いの速度向上と同等の画質が得られる。
関連論文リスト
- Robust Frame-to-Frame Camera Rotation Estimation in Crowded Scenes [8.061773364318313]
本稿では,携帯型モノクロビデオから,混み合った現実世界のシーンにおけるカメラ回転推定手法を提案する。
我々は、17の動画シーケンスに対して、高精度で厳密に検証された地上真実を持つ新しいデータセットとベンチマークを提供する。
これは、混み合ったシーンに対する強力な新しいパフォーマンスポイントであり、コンピュータビジョンにとって重要な設定である。
論文 参考訳(メタデータ) (2023-09-15T17:44:07Z) - Minimum Latency Deep Online Video Stabilization [77.68990069996939]
本稿では,オンラインビデオ安定化作業のための新しいカメラパス最適化フレームワークを提案する。
本研究では,近年の市販の高品位深度モーションモデルを用いて動き推定を行い,カメラの軌道を復元する。
我々の手法は、定性的にも量的にも最先端のオンライン手法を大きく上回っている。
論文 参考訳(メタデータ) (2022-12-05T07:37:32Z) - GPU-accelerated SIFT-aided source identification of stabilized videos [63.084540168532065]
我々は、安定化フレームインバージョンフレームワークにおけるグラフィクス処理ユニット(GPU)の並列化機能を利用する。
我々はSIFT機能を活用することを提案する。
カメラのモーメントを推定し 1%の確率で 時間セグメントを識別します
実験により,提案手法の有効性を確認し,必要な計算時間を短縮し,情報源の同定精度を向上させる。
論文 参考訳(メタデータ) (2022-07-29T07:01:31Z) - Video Frame Interpolation without Temporal Priors [91.04877640089053]
ビデオフレームは、既存の中間フレームをビデオシーケンスで合成することを目的としている。
フレーム/秒(FPS)やフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
我々は、より良い合成結果を得るために、新しい光フロー改善戦略を考案する。
論文 参考訳(メタデータ) (2021-12-02T12:13:56Z) - Self-Supervised Real-time Video Stabilization [100.00816752529045]
本稿では,リアルタイムビデオ安定化手法を提案する。
この動画は、まるでジンバルでリアルタイムで安定しているかのように、不安定な動画に変換します。
論文 参考訳(メタデータ) (2021-11-10T22:49:56Z) - Neural Re-rendering for Full-frame Video Stabilization [144.9918806873405]
まず,高密度ワープ場を推定し,フルフレーム映像安定化のためのアルゴリズムを提案する。
フルフレーム安定化フレームは、隣接するフレームから歪んだコンテンツを融合することで合成することができる。
論文 参考訳(メタデータ) (2021-02-11T18:59:45Z) - Cinematic-L1 Video Stabilization with a Log-Homography Model [0.0]
撮影者が撮影するカメラの動きを、三脚、人形、ステアディカムなどの装置でシミュレートする手持ちビデオの安定化方法を提案する。
提案手法は,iPhone XS上で300fpsで動作する計算効率が高く,高品質な結果が得られる。
論文 参考訳(メタデータ) (2020-11-16T18:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。