論文の概要: Learning Cross-Video Neural Representations for High-Quality Frame
Interpolation
- arxiv url: http://arxiv.org/abs/2203.00137v1
- Date: Mon, 28 Feb 2022 23:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 14:47:35.951501
- Title: Learning Cross-Video Neural Representations for High-Quality Frame
Interpolation
- Title(参考訳): 高品質フレーム補間のためのクロスビデオニューラル表現の学習
- Authors: Wentao Shangguan, Yu Sun, Weijie Gan, Ulugbek S. Kamilov
- Abstract要約: クロスビデオニューラル(Cross-Video Neural, CURE)は、ニューラルフィールド(NF)に基づく最初のビデオ手法である。
CUREは、ビデオを座標ベースのニューラルネットワークによってパラメータ化された連続関数として表現する。
- 参考スコア(独自算出の注目度): 13.711714133169961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the problem of temporal video interpolation, where the
goal is to synthesize a new video frame given its two neighbors. We propose
Cross-Video Neural Representation (CURE) as the first video interpolation
method based on neural fields (NF). NF refers to the recent class of methods
for the neural representation of complex 3D scenes that has seen widespread
success and application across computer vision. CURE represents the video as a
continuous function parameterized by a coordinate-based neural network, whose
inputs are the spatiotemporal coordinates and outputs are the corresponding RGB
values. CURE introduces a new architecture that conditions the neural network
on the input frames for imposing space-time consistency in the synthesized
video. This not only improves the final interpolation quality, but also enables
CURE to learn a prior across multiple videos. Experimental evaluations show
that CURE achieves the state-of-the-art performance on video interpolation on
several benchmark datasets.
- Abstract(参考訳): 本稿では,隣接する2種類の映像フレームを合成することを目的として,時間的映像補間の問題を考える。
ニューラルフィールド(NF)に基づく最初のビデオ補間法として、Cross-Video Neural Representation (CURE)を提案する。
NFは、コンピュータビジョン全体で広く成功し応用されている複雑な3Dシーンの神経表現のための最近の手法のクラスを指す。
CUREは、映像を座標ベースニューラルネットワークによってパラメータ化された連続関数として表現し、その入力は時空間座標であり、出力は対応するRGB値である。
CUREは、合成ビデオの時空間一貫性を損なうために、入力フレーム上にニューラルネットワークを条件付ける新しいアーキテクチャを導入する。
これにより、最終的な補間品質が向上するだけでなく、CUREは複数のビデオ間で事前学習が可能になる。
実験的評価により,CUREは複数のベンチマークデータセット上での映像補間における最先端の性能を達成することが示された。
関連論文リスト
- D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - Progressive Fourier Neural Representation for Sequential Video
Compilation [75.43041679717376]
連続学習によって動機づけられたこの研究は、シーケンシャルエンコーディングセッションを通じて、複数の複雑なビデオデータに対して、ニューラル暗黙表現を蓄積し、転送する方法を研究する。
本稿では,FFNR(Progressive Fourier Neural Representation)という,FFNR(Progressive Fourier Neural Representation)という,FFNR(Progressive Fourier Neural Representation)という手法を提案する。
我々は,UVG8/17とDAVIS50のビデオシーケンスベンチマークでPFNR法を検証し,強力な連続学習ベースラインよりも優れた性能向上を実現した。
論文 参考訳(メタデータ) (2023-06-20T06:02:19Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Exploring Intra- and Inter-Video Relation for Surgical Semantic Scene
Segmentation [58.74791043631219]
セグメンテーション性能を高めるために,映像内および映像間関係を補完する新しいフレームワークSTswinCLを提案する。
本研究では,EndoVis18 ChallengeとCaDISデータセットを含む2つの公開手術ビデオベンチマークに対するアプローチを広く検証する。
実験により,従来の最先端手法を一貫して超越した提案手法の有望な性能を示す。
論文 参考訳(メタデータ) (2022-03-29T05:52:23Z) - Condensing a Sequence to One Informative Frame for Video Recognition [113.3056598548736]
本稿では,まず映像シーケンスを情報的「フレーム」に凝縮する2段階の代替手法について検討する。
有効な疑問は、どのように「有用な情報」を定義し、シーケンスから1つの合成フレームに蒸留するかである。
IFSは画像ベースの2Dネットワークとクリップベースの3Dネットワークを一貫して改善している。
論文 参考訳(メタデータ) (2022-01-11T16:13:43Z) - Neural 3D Video Synthesis [18.116032726623608]
本研究では,動的実世界のシーンのマルチビュー映像記録を表現可能な3次元映像合成手法を提案する。
私たちのアプローチは、モデルフリーでダイナミックな設定に、新しい方向の静的神経放射体の高品質とコンパクトさを取ります。
本手法は,高度に複雑でダイナミックなシーンでも1k以上の解像度で高精細な広角ノベルビューをレンダリングできることを実証する。
論文 参考訳(メタデータ) (2021-03-03T18:47:40Z) - W-Cell-Net: Multi-frame Interpolation of Cellular Microscopy Videos [1.7205106391379026]
蛍光顕微鏡タイムラプス映画の時間分解能を高めるため,近年のディープ・ビデオ・コンボリューションを応用した。
我々の知る限り、2つの連続した顕微鏡画像間のフレームを生成するために、CNN(Conal Neural Networks)を用いた以前の研究はない。
論文 参考訳(メタデータ) (2020-05-14T01:33:38Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。