論文の概要: Ray-Space Motion Compensation for Lenslet Plenoptic Video Coding
- arxiv url: http://arxiv.org/abs/2207.00522v1
- Date: Fri, 1 Jul 2022 16:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 14:51:53.350253
- Title: Ray-Space Motion Compensation for Lenslet Plenoptic Video Coding
- Title(参考訳): lenslet plenoptic ビデオ符号化における光空間運動補償
- Authors: Thuc Nguyen Huu, Vinh Van Duong, Jonghoon Yim, Byeungwoo Jeon
- Abstract要約: 我々は、光空間運動の2つのサブケースの下で、レンズレットビデオの新たな動き補償手法を開発した。
実験結果は、平均的な19.63%の圧縮効率とピーク時の29.1%の圧縮効率を示している。
- 参考スコア(独自算出の注目度): 4.625715746939332
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Plenoptic images and videos bearing rich information demand a tremendous
amount of data storage and high transmission cost. While there has been much
study on plenoptic image coding, investigations into plenoptic video coding
have been very limited. We investigate the motion compensation for plenoptic
video coding from a slightly different perspective by looking at the problem in
the ray-space domain instead of in the conventional pixel domain. Here, we
develop a novel motion compensation scheme for lenslet video under two
sub-cases of ray-space motion, that is, integer ray-space motion and fractional
ray-space motion. The proposed new scheme of light field motion-compensated
prediction is designed such that it can be easily integrated into well-known
video coding techniques such as HEVC. Experimental results compared to relevant
existing methods have shown remarkable compression efficiency with an average
gain of 19.63% and a peak gain of 29.1%.
- Abstract(参考訳): 豊富な情報を持つ複眼画像やビデオは膨大な量のデータストレージと高い伝送コストを必要とする。
plenoptic画像符号化に関する多くの研究がなされているが、plenopticビデオ符号化に関する調査は非常に限られている。
本研究では,従来の画素領域ではなく,線空間領域の問題に着目し,plenopticビデオ符号化の動作補償を若干異なる視点から検討する。
そこで我々は,光線空間運動,すなわち整数線空間運動と分数線空間運動の2つのサブケースの下で,レンズレット映像の新たな動き補償手法を開発した。
提案する光場運動補正予測方式は,HEVCなどのよく知られたビデオ符号化技術に容易に組み込めるように設計されている。
既存の方法と比較した実験結果は、平均利得19.63%、ピーク利得29.1%という顕著な圧縮効率を示した。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Lightweight High-Speed Photography Built on Coded Exposure and Implicit Neural Representation of Videos [34.152901518593396]
高速シーンを高解像度で記録できるコンパクトカメラの需要は着実に増加している。
しかし、そのような能力を達成するには、しばしば高帯域幅の要求が伴うため、低容量のプラットフォームには不適当で重いシステムになる。
本稿では,ビデオの暗黙的表現と古典的符号化露光画像技術を組み合わせることで,これらの課題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T03:41:13Z) - VNVC: A Versatile Neural Video Coding Framework for Efficient
Human-Machine Vision [59.632286735304156]
コード化された表現をピクセルに復号することなく直接拡張・解析することがより効率的である。
再構成と直接拡張/分析の両方をサポートするために,コンパクト表現の学習を目標とする汎用型ニューラルビデオ符号化(VNVC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T03:04:57Z) - Exploring Long- and Short-Range Temporal Information for Learned Video
Compression [54.91301930491466]
圧縮性能を高めるために,映像コンテンツの特徴を活かし,時間的情報を探究することに注力する。
本稿では,画像群(GOP)内で画像の推測中に連続的に更新できる時間前処理を提案する。
この場合、時間的事前は、現在のGOP内のすべてのデコードされた画像の貴重な時間的情報を含む。
本稿では,マルチスケール補償を実現する階層構造を設計する。
論文 参考訳(メタデータ) (2022-08-07T15:57:18Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - Foveation-based Deep Video Compression without Motion Search [43.70396515286677]
VRで見るビデオのごく一部しか、ユーザーが特定の方向を見つめるときに見ることができないため、ファベーションプロトコルは望ましい。
我々は、ビットの割り当てを指示するフォベーションマスクを生成するFGU(Foveation Generator Unit)を導入することにより、フォベーションを実現する。
我々の新しい圧縮モデルは、Foveated Motionless VIdeo Codec (Foveated MOVI-Codec)と呼ばれ、モーションを計算せずに効率的に動画を圧縮することができる。
論文 参考訳(メタデータ) (2022-03-30T17:30:17Z) - Microdosing: Knowledge Distillation for GAN based Compression [18.140328230701233]
そこで本研究では,知識蒸留を利用した画像デコーダの有効化について,元のパラメータ数のごく一部で示す。
これにより、モデルサイズを20倍に削減し、デコード時間の50%削減を実現できます。
論文 参考訳(メタデータ) (2022-01-07T14:27:16Z) - Self-Conditioned Probabilistic Learning of Video Rescaling [70.10092286301997]
本稿では,ビデオ再スケーリングのための自己条件付き確率的フレームワークを提案し,ペアダウンスケーリングとアップスケーリングの手順を同時に学習する。
我々は、その条件付き確率を強い時空間事前情報に基づいて最大化することにより、ダウンスケーリングで失われた情報のエントロピーを減少させる。
我々は、このフレームワークを、非微分産業損失コーデックの勾配推定器として提案する、損失のあるビデオ圧縮システムに拡張する。
論文 参考訳(メタデータ) (2021-07-24T15:57:15Z) - A Good Image Generator Is What You Need for High-Resolution Video
Synthesis [73.82857768949651]
現代画像生成装置を用いて高解像度映像のレンダリングを行うフレームワークを提案する。
我々は,映像合成問題を,予め訓練された固定された画像生成装置の潜時空間における軌跡の発見とみなす。
本稿では,コンテンツや動きが絡み合っている所望の軌跡を検出するモーションジェネレータを提案する。
論文 参考訳(メタデータ) (2021-04-30T15:38:41Z) - Video Reconstruction by Spatio-Temporal Fusion of Blurred-Coded Image
Pair [16.295479896947853]
1つのモーションブルーの画像からビデオを取り出すのは、非常に不適切な問題だ。
従来のコード付き露光フレームワークはより適しているが、時空ボリュームのごく一部しかサンプリングできない。
完全露光画像に含まれる補完情報と符号化された露光画像を用いて高忠実度映像を復元する。
論文 参考訳(メタデータ) (2020-10-20T06:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。