論文の概要: Removing Blocking Artifacts in Video Streams Using Event Cameras
- arxiv url: http://arxiv.org/abs/2105.05973v1
- Date: Wed, 12 May 2021 21:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:49:54.714153
- Title: Removing Blocking Artifacts in Video Streams Using Event Cameras
- Title(参考訳): イベントカメラを用いたビデオストリーム中のアーティファクトの削除
- Authors: Henry H. Chopp, Srutarshi Banerjee, Oliver Cossairt, Aggelos K.
Katsaggelos
- Abstract要約: エベレストネット(everestnet)は、ビデオストリーム内のブロックアーティファクトをニューロモルフィックセンサーからのイベントを用いて除去する畳み込みニューラルネットワークである。
歪んだフレームとイベントストリームを使用することで、EveRestNetは画質を向上させることができる。
- 参考スコア(独自算出の注目度): 18.103247702799703
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose EveRestNet, a convolutional neural network designed
to remove blocking artifacts in videostreams using events from neuromorphic
sensors. We first degrade the video frame using a quadtree structure to produce
the blocking artifacts to simulate transmitting a video under a heavily
constrained bandwidth. Events from the neuromorphic sensor are also simulated,
but are transmitted in full. Using the distorted frames and the event stream,
EveRestNet is able to improve the image quality.
- Abstract(参考訳): 本稿では,ビデオストリーム中のブロッキングアーティファクトを,ニューロモルフィックセンサからのイベントを用いて除去する畳み込みニューラルネットワークであるeverestnetを提案する。
まず,クワッドツリー構造を用いてビデオフレームを分解し,ブロッキングアーティファクトを生成し,制約の厳しい帯域内における映像送信をシミュレートする。
ニューロモルフィックセンサーからのイベントもシミュレートされるが、完全に伝達される。
歪んだフレームとイベントストリームを使用することで、EveRestNetは画質を向上させることができる。
関連論文リスト
- A cross Transformer for image denoising [83.68175077524111]
直列ブロック(SB)、並列ブロック(PB)、残留ブロック(RB)を備えたクロストランスフォーマー(CTNet)を提案する。
CTNetは、実画像や合成画像のデノナイジングにおいて、一般的なデノナイジング法よりも優れている。
論文 参考訳(メタデータ) (2023-10-16T13:53:19Z) - EGVD: Event-Guided Video Deraining [57.59935209162314]
本稿では,ビデオデライニングのためのイベントカメラの可能性を解放するエンド・ツー・エンドの学習ネットワークを提案する。
雨の多いビデオと時間的に同期されたイベントストリームからなる現実世界のデータセットを構築します。
論文 参考訳(メタデータ) (2023-09-29T13:47:53Z) - Unidirectional Video Denoising by Mimicking Backward Recurrent Modules
with Look-ahead Forward Ones [72.68740880786312]
双方向リカレントネットワーク (BiRNN) は、いくつかのビデオ復元作業において魅力的な性能を示した。
BiRNNは本質的にオフラインである。最後のフレームから現在のフレームへ伝播するために、後方リカレントモジュールを使用するからだ。
本稿では,一方向ビデオ復調のための前方および前方再帰モジュールからなる新しいリカレントネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-12T05:33:15Z) - Dilated convolutional neural network-based deep reference picture
generation for video compression [16.42377608366894]
本稿では,現在の符号化フレームとより関連性の高い画像を生成するディープリファレンス画像生成器を提案する。
本稿では,近年の畳み込みニューラルネットワーク(CNN)の進歩に触発されて,拡張CNNを用いてジェネレータを構築することを提案する。
論文 参考訳(メタデータ) (2022-02-11T09:06:18Z) - Temporally Coherent Person Matting Trained on Fake-Motion Dataset [0.0]
本稿では,トリマップのような付加的なユーザ入力を必要としない人物を描写したビデオのマッチングを行う新しい手法を提案する。
本アーキテクチャは,画像分割アルゴリズム出力の運動推定に基づく平滑化を用いて,結果のアルファ行列の時間的安定性を実現する。
また,地味なアルファ・マットとバックグラウンド・ビデオで撮影されたビデオ・マッティング・ネットワークのトレーニング・クリップを生成するフェイク・モーション・アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-10T12:53:11Z) - Issues in Object Detection in Videos using Common Single-Image CNNs [0.0]
物体検出は、産業プロセス、医療画像分析、自動運転車などの多くの用途で使われている。
自動運転車のようなアプリケーションにとって、オブジェクト検出システムはビデオ内の複数のフレームを通してオブジェクトを識別できることが重要である。
オブジェクト検出には多くのニューラルネットワークが使われており、もしフレーム間でオブジェクトを接続する方法があったら、これらの問題は排除される可能性がある。
データセットは、連続するビデオフレームを表現し、接地構造層と一致するイメージで作成されなければならない。
論文 参考訳(メタデータ) (2021-05-26T20:33:51Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - Video Deblurring by Fitting to Test Data [39.41334067434719]
自律走行車やロボットが撮影した動画では、動きがぼやけている。
テストビデオにディープネットワークを組み込むことで,ビデオデブレーションに対する新たなアプローチを提案する。
ビデオからシャープなフレームを選択し、これらのシャープなフレームに畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2020-12-09T18:49:24Z) - Unsupervised Deep Video Denoising [26.864842892466136]
ディープ畳み込みニューラルネットワーク(CNN)は現在、ビデオの復調において最先端のパフォーマンスを実現している。
我々は、教師なし静止画像の最近の進歩を基盤として、教師なし深層映像デノイザ(UDVD)の開発を行っている。
UDVDは、現在の最先端の教師付き手法とベンチマークデータセットで競合して動作する。
論文 参考訳(メタデータ) (2020-11-30T17:45:08Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - Reducing the Sim-to-Real Gap for Event Cameras [64.89183456212069]
イベントカメラは、非同期でピクセルごとの明るさ変化を報告し、非並列の低レイテンシで「イベント」と呼ばれるパラダイムシフトする新しいセンサーである。
近年の研究では、コンボリューショナルニューラルネットワーク(CNN)を用いて、映像再構成とイベントによる光学的流れを実証している。
既存のビデオ再構成ネットワークの性能を20~40%向上させるイベントベースCNNのトレーニングデータ改善戦略を提案する。
論文 参考訳(メタデータ) (2020-03-20T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。