論文の概要: MobileCodec: Neural Inter-frame Video Compression on Mobile Devices
- arxiv url: http://arxiv.org/abs/2207.08338v1
- Date: Mon, 18 Jul 2022 01:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 01:43:51.623125
- Title: MobileCodec: Neural Inter-frame Video Compression on Mobile Devices
- Title(参考訳): mobilecodec: モバイルデバイス上でのニューラルフレーム間ビデオ圧縮
- Authors: Hoang Le, Liang Zhang, Amir Said, Guillaume Sautiere, Yang Yang,
Pranav Shrestha, Fei Yin, Reza Pourreza, Auke Wiggers
- Abstract要約: 商用携帯電話で動作する最初のフレーム間ニューラルビデオデコーダを示す。
商用携帯電話で動作する最初のフレーム間ニューラルビデオデコーダを示す。
- 参考スコア(独自算出の注目度): 14.339890901963862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Realizing the potential of neural video codecs on mobile devices is a big
technological challenge due to the computational complexity of deep networks
and the power-constrained mobile hardware. We demonstrate practical feasibility
by leveraging Qualcomm's technology and innovation, bridging the gap from
neural network-based codec simulations running on wall-powered workstations, to
real-time operation on a mobile device powered by Snapdragon technology. We
show the first-ever inter-frame neural video decoder running on a commercial
mobile phone, decoding high-definition videos in real-time while maintaining a
low bitrate and high visual quality.
- Abstract(参考訳): モバイルデバイス上でのニューラルビデオコーデックの可能性を実現することは、ディープネットワークと電力制約のあるモバイルハードウェアの計算複雑性のため、大きな技術的課題である。
我々は,Qualcommの技術とイノベーションを活用し,壁駆動ワークステーション上で動作するニューラルネットワークベースのコーデックシミュレーションから,Snapdragon技術を利用したモバイルデバイス上でのリアルタイム操作までのギャップを埋めることにより,現実的な実現可能性を示す。
商用携帯電話で動作する最初のフレーム間ニューラルビデオデコーダを示し、低ビットレートと高画質を維持しながら高精細ビデオをリアルタイムで復号する。
関連論文リスト
- V^3: Viewing Volumetric Videos on Mobiles via Streamable 2D Dynamic Gaussians [53.614560799043545]
V3 (Viewing Volumetric Videos) は,ダイナミックガウスのストリーミングによる高品質なモバイルレンダリングを実現する,新たなアプローチである。
私たちの重要なイノベーションは、ダイナミックな3DGSを2Dビデオと見なすことで、ハードウェアビデオコーデックの使用を促進することです。
モバイル端末でダイナミックなガウシアンをストリームする最初の手段として、私たちのコンパニオンプレーヤーは、前例のないボリュームビデオ体験をユーザに提供します。
論文 参考訳(メタデータ) (2024-09-20T16:54:27Z) - Artificial intelligence optical hardware empowers high-resolution
hyperspectral video understanding at 1.2 Tb/s [53.91923493664551]
本研究は,多次元映像理解のためのハードウェアアクセラレーション型集積光電子プラットフォームをリアルタイムに導入する。
この技術プラットフォームは、人工知能ハードウェアと光学的に情報を処理し、最先端のマシンビジョンネットワークを組み合わせる。
このような性能は、類似のスペクトル分解能を持つ最も近い技術の速度を3~4等級で上回る。
論文 参考訳(メタデータ) (2023-12-17T07:51:38Z) - MobileNVC: Real-time 1080p Neural Video Compression on a Mobile Device [11.842644678122983]
この研究は、モバイルデバイス上で1080pのYUV420ビデオをリアルタイムでデコードする最初のニューラルビデオを示す。
我々は高速デコーダパイプラインを実装し、ニューラルネットワークコンポーネントをニューラルネットワークプロセッサ上で並列に動作させ、モバイルGPU上で並列エントロピー符号化を行い、コアをワーピングする。
論文 参考訳(メタデータ) (2023-10-02T14:50:14Z) - Learned Scalable Video Coding For Humans and Machines [4.14360329494344]
ベース層にエンド・ツー・エンドの学習可能なビデオタスクを導入し,その拡張層はベース層とともに人間の視聴のための入力再構成をサポートする。
我々のフレームワークは、その基盤層において、最先端の学習と従来のビデオコーデックの両方を上回り、その拡張層では、人間の視覚タスクに匹敵する性能を維持している。
論文 参考訳(メタデータ) (2023-07-18T05:22:25Z) - VNVC: A Versatile Neural Video Coding Framework for Efficient
Human-Machine Vision [59.632286735304156]
コード化された表現をピクセルに復号することなく直接拡張・解析することがより効率的である。
再構成と直接拡張/分析の両方をサポートするために,コンパクト表現の学習を目標とする汎用型ニューラルビデオ符号化(VNVC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T03:04:57Z) - Real-Time Neural Light Field on Mobile Devices [54.44982318758239]
低レイテンシで小さなサイズでモバイルデバイス上で効率的に動作する新しいネットワークアーキテクチャを導入する。
本モデルでは,合成シーンと実世界のシーンの両方において,リアルタイムな推論を維持しながら高分解能な生成を実現する。
論文 参考訳(メタデータ) (2022-12-15T18:58:56Z) - Task Oriented Video Coding: A Survey [0.5076419064097732]
H.265/HEVCやVersatile Video Codingのような最先端のビデオコーディング標準は、圧縮されたビデオが人間によって監視されると仮定して設計されている。
コンピュータビジョンタスクの解法におけるディープニューラルネットワークの飛躍的な進歩と成熟により、人間の関与なしにディープニューラルネットワークによって直接分析されるビデオはますます増えている。
コンピュータビジョンタスク指向のビデオコーディングと新しいビデオコーディング標準である Video Coding for Machines の最近の進歩を探求し要約する。
論文 参考訳(メタデータ) (2022-08-15T16:21:54Z) - Scalable Video Coding for Humans and Machines [42.870358996305356]
本稿では,ベース層ビットストリームによるマシンビジョンと,拡張層ビットストリームによるヒューマンビジョンをサポートするスケーラブルなビデオコーディングフレームワークを提案する。
提案するフレームワークには,従来型とディープニューラルネットワーク(DNN)ベースのビデオ符号化の両方のコンポーネントが含まれている。
論文 参考訳(メタデータ) (2022-08-04T07:45:41Z) - MoViNets: Mobile Video Networks for Efficient Video Recognition [52.49314494202433]
3D畳み込みニューラルネットワーク(CNN)は、ビデオ認識では正確だが、大きな計算とメモリ予算を必要とする。
本稿では,3次元CNNのピークメモリ使用量を大幅に削減しつつ,計算効率を向上させる3段階の手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:06:38Z) - Learning to Compress Videos without Computing Motion [39.46212197928986]
動き推定を必要としない新しいディープラーニングビデオ圧縮アーキテクチャを提案する。
本フレームワークでは,映像のフレーム差分を映像表現として利用することにより,映像の動きに固有の規則性を利用する。
実験の結果,Motionless VIdeo Codec (MOVI-Codec) と呼ばれる圧縮モデルは,動きを計算せずに効率的に動画を圧縮する方法を学習することがわかった。
論文 参考訳(メタデータ) (2020-09-29T15:49:25Z) - An Emerging Coding Paradigm VCM: A Scalable Coding Approach Beyond
Feature and Signal [99.49099501559652]
Video Coding for Machine (VCM)は、視覚的特徴圧縮と古典的なビデオ符号化のギャップを埋めることを目的としている。
我々は,学習した動きパターンのガイダンスを用いて,映像フレームを再構成するために条件付き深層生成ネットワークを用いる。
予測モデルを介してスパース動作パターンを抽出することを学ぶことにより、特徴表現をエレガントに活用し、符号化されたフレームの外観を生成する。
論文 参考訳(メタデータ) (2020-01-09T14:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。