論文の概要: NNVISR: Bring Neural Network Video Interpolation and Super Resolution
into Video Processing Framework
- arxiv url: http://arxiv.org/abs/2308.03121v1
- Date: Sun, 6 Aug 2023 14:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 16:29:30.805086
- Title: NNVISR: Bring Neural Network Video Interpolation and Super Resolution
into Video Processing Framework
- Title(参考訳): NNVISR: ビデオ処理フレームワークにニューラルネットワークの補間と超解像を実現する
- Authors: Yuan Tong, Mengshun Hu, Zheng Wang
- Abstract要約: NNVISRはVapourビデオ処理フレームワーク用のオープンソースのフィルタプラグインである。
様々な種類のビデオエンハンスメントタスクにニューラルネットワークを適用するのに役立つ。
- 参考スコア(独自算出の注目度): 9.812185278705066
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present NNVISR - an open-source filter plugin for the VapourSynth video
processing framework, which facilitates the application of neural networks for
various kinds of video enhancing tasks, including denoising, super resolution,
interpolation, and spatio-temporal super-resolution. NNVISR fills the gap
between video enhancement neural networks and video processing pipelines, by
accepting any network that enhances a group of frames, and handling all other
network agnostic details during video processing. NNVISR is publicly released
at https://github.com/tongyuantongyu/vs-NNVISR.
- Abstract(参考訳): 本稿では,VapourSynthビデオ処理フレームワーク用のオープンソースのフィルタプラグインであるNNVISRについて述べる。
NNVISRは、フレームのグループを強化するネットワークを受け入れ、ビデオ処理中に他のネットワーク非依存の詳細を処理することで、ビデオ拡張ニューラルネットワークとビデオ処理パイプラインの間のギャップを埋める。
NNVISRはhttps://github.com/tongyuantongyu/vs-NNVISRで公開されている。
関連論文リスト
- Spatio-temporal Prompting Network for Robust Video Feature Extraction [74.54597668310707]
フレームテンポラリ(Frametemporal)は、ビデオ理解の分野における大きな課題の1つだ。
最近のアプローチでは、トランスフォーマーベースの統合モジュールを活用して、時間的品質情報を得る。
N-Temporal Prompting Network (NNSTP) という,クリーンで統一されたフレームワークを提案する。
ネットワークバックボーン内の入力特徴を調整することで,映像特徴の抽出を効率的に行うことができる。
論文 参考訳(メタデータ) (2024-02-04T17:52:04Z) - HNeRV: A Hybrid Neural Representation for Videos [56.492309149698606]
暗黙の神経表現は、動画をニューラルネットワークとして保存する。
ビデオ用ハイブリッドニューラル表現法(HNeRV)を提案する。
コンテンツ適応型埋め込みと再設計アーキテクチャにより、HNeRVはビデオレグレッションタスクにおいて暗黙のメソッドよりも優れる。
論文 参考訳(メタデータ) (2023-04-05T17:55:04Z) - Image Super-resolution with An Enhanced Group Convolutional Neural
Network [102.2483249598621]
学習能力の強いCNNは、超解像問題を解くために広く選択されている。
浅層構造を持つ超解像群CNN(ESRGCNN)を提案する。
ESRGCNNは、SISRの性能、複雑さ、実行速度、画質評価およびSISRの視覚効果の観点から、最先端技術を上回っていると報告されている。
論文 参考訳(メタデータ) (2022-05-29T00:34:25Z) - Implicit Neural Video Compression [17.873088127087605]
暗黙的なニューラル表現で全解像度映像列を圧縮する手法を提案する。
各フレームは、座標位置をピクセル値にマッピングするニューラルネットワークとして表現される。
我々は、異なる暗黙ネットワークを用いて座標入力を変調し、フレーム間の効率的な動き補償を可能にする。
論文 参考訳(メタデータ) (2021-12-21T15:59:00Z) - Video Content Classification using Deep Learning [0.0]
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせたモデルを提案する。
モデルは、動画コンテンツの種類を特定し、それらを「アニメーション、ゲーム、自然コンテンツ、フラットコンテンツ」などのカテゴリに分類することができる。
論文 参考訳(メタデータ) (2021-11-27T04:36:17Z) - Convolutional Neural Networks Demystified: A Matched Filtering
Perspective Based Tutorial [7.826806223782053]
畳み込みニューラルネットワーク(CNN)は、大量の信号や画像を分析するためのデファクト標準である。
我々は、最初の原則と一致するフィルタリングの観点から、それらの操作を再考する。
このチュートリアルが、深層ニューラルネットワークの理解とさらなる発展に新たな光と物理的直感をもたらすことを願っています。
論文 参考訳(メタデータ) (2021-08-26T09:07:49Z) - Progressively Normalized Self-Attention Network for Video Polyp
Segmentation [88.53757948857196]
本稿では,ポリプビデオから表現を効率よく学習する新しい PNS-Net (Progressively Normalized Self-attention Network) を提案する。
当社のPNS-Netは,再帰性とCNNを完全に装備する,基本的正規化自己注意ブロックのみをベースとしています。
挑戦的なデータセットの実験は、提案されたNS-Netが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2021-05-18T12:20:00Z) - VID-WIN: Fast Video Event Matching with Query-Aware Windowing at the
Edge for the Internet of Multimedia Things [3.222802562733787]
VID-WINは、エッジクラウドパラダイムでビデオイベント分析を加速するための適応型2段階アライメントウィンドウリングアプローチです。
VID-WINは、ビデオコンテンツと入力ノブを利用して、ノード間のビデオ推論プロセスを加速する。
論文 参考訳(メタデータ) (2021-04-27T10:08:40Z) - VGNMN: Video-grounded Neural Module Network to Video-Grounded Language
Tasks [73.04906599884868]
VGNMN(Video-grounded Neural Module Network)を導入して,ビデオベース言語タスクにおける情報検索プロセスをモデル化する。
VGNMNはまずすべての言語コンポーネントを分解し、エンティティ参照を明示的に解決し、質問からアクションベースの入力を検出する。
論文 参考訳(メタデータ) (2021-04-16T06:47:41Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - W-Cell-Net: Multi-frame Interpolation of Cellular Microscopy Videos [1.7205106391379026]
蛍光顕微鏡タイムラプス映画の時間分解能を高めるため,近年のディープ・ビデオ・コンボリューションを応用した。
我々の知る限り、2つの連続した顕微鏡画像間のフレームを生成するために、CNN(Conal Neural Networks)を用いた以前の研究はない。
論文 参考訳(メタデータ) (2020-05-14T01:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。