論文の概要: Neural Enhancement in Content Delivery Systems: The State-of-the-Art and
Future Directions
- arxiv url: http://arxiv.org/abs/2010.05838v2
- Date: Thu, 22 Oct 2020 12:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 08:10:29.325851
- Title: Neural Enhancement in Content Delivery Systems: The State-of-the-Art and
Future Directions
- Title(参考訳): コンテンツ配信システムにおけるニューラルエンハンスメント:最新技術と今後の展望
- Authors: Royson Lee, Stylianos I. Venieris, Nicholas D. Lane
- Abstract要約: ディープラーニングは、品質の低い画像から高品質な画像を生成する上で、前例のないパフォーマンスをもたらした。
本稿では,高速応答時間と高画質を実現する上で重要な要素として,ニューラルエンハンスメントを用いた最新のコンテンツ配信システムを提案する。
- 参考スコア(独自算出の注目度): 16.04084457087104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet-enabled smartphones and ultra-wide displays are transforming a
variety of visual apps spanning from on-demand movies and 360-degree videos to
video-conferencing and live streaming. However, robustly delivering visual
content under fluctuating networking conditions on devices of diverse
capabilities remains an open problem. In recent years, advances in the field of
deep learning on tasks such as super-resolution and image enhancement have led
to unprecedented performance in generating high-quality images from low-quality
ones, a process we refer to as neural enhancement. In this paper, we survey
state-of-the-art content delivery systems that employ neural enhancement as a
key component in achieving both fast response time and high visual quality. We
first present the deployment challenges of neural enhancement models. We then
cover systems targeting diverse use-cases and analyze their design decisions in
overcoming technical challenges. Moreover, we present promising directions
based on the latest insights from deep learning research to further boost the
quality of experience of these systems.
- Abstract(参考訳): インターネット対応のスマートフォンとウルトラワイドディスプレイは、オンデマンド映画から360度ビデオ、ビデオ会議やライブストリーミングまで、さまざまなビジュアルアプリを変えつつある。
しかしながら、多様な能力を持つデバイス上で変動するネットワーク条件下での視覚的コンテンツの堅牢な配信は、いまだに未解決の問題である。
近年,超解像や画像強調などのタスクにおける深層学習の進歩は,低品質の画像から高品質な画像を生成する上で,前例のないパフォーマンスをもたらしている。
本稿では,高速応答時間と高画質を実現する上で重要な要素としてニューラルエンハンスメントを用いた最先端コンテンツ配信システムについて検討する。
まず,ニューラルエンハンスメントモデルの展開課題について述べる。
次に、さまざまなユースケースを対象とするシステムをカバーし、技術的課題を克服するための設計決定を分析する。
さらに,これらのシステムにおける経験の質をさらに向上させるため,深層学習研究の最新の知見に基づく有望な方向性を示す。
関連論文リスト
- Reimagining Reality: A Comprehensive Survey of Video Inpainting
Techniques [6.36998581871295]
ビデオ・インペイント(英: Video inpainting)とは、ビデオ・シーケンスの欠落や破損した部分を再生または埋めるプロセスである。
本研究は, 主要な技術, その基盤となる理論, 有効利用を分解する。
我々は、視覚的品質を評価するために人間中心のアプローチを採用し、異なる映像塗装技術の出力を評価するためにアノテータのパネルを登録する。
論文 参考訳(メタデータ) (2024-01-31T14:41:40Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - A Survey on Super Resolution for video Enhancement Using GAN [0.0]
Generative Adversarial Networksのようなディープラーニングアルゴリズムを用いた超高解像度画像とビデオの最近の発展について紹介する。
低解像度ビデオの視覚的明快さと品質の向上を目指す進歩は、監視技術から医用画像まで、さまざまな分野で大きな可能性を秘めている。
このコレクションは、ジェネレーティブ・アドバイサル・ネットワークの広い分野に展開し、その原則、トレーニング・アプローチ、幅広い領域にわたるアプリケーションについて探求している。
論文 参考訳(メタデータ) (2023-12-27T08:41:38Z) - Integration and Performance Analysis of Artificial Intelligence and
Computer Vision Based on Deep Learning Algorithms [5.734290974917728]
本稿では,ディープラーニングとコンピュータビジョン技術の統合による応用効果の分析に焦点をあてる。
ディープラーニングは階層型ニューラルネットワークを構築することで歴史的なブレークスルーを実現し、エンドツーエンドの機能学習と画像の意味的理解を可能にする。
コンピュータビジョンの分野で成功した経験は、ディープラーニングアルゴリズムのトレーニングに強力なサポートを提供する。
論文 参考訳(メタデータ) (2023-12-20T09:37:06Z) - Artificial intelligence optical hardware empowers high-resolution
hyperspectral video understanding at 1.2 Tb/s [53.91923493664551]
本研究は,多次元映像理解のためのハードウェアアクセラレーション型集積光電子プラットフォームをリアルタイムに導入する。
この技術プラットフォームは、人工知能ハードウェアと光学的に情報を処理し、最先端のマシンビジョンネットワークを組み合わせる。
このような性能は、類似のスペクトル分解能を持つ最も近い技術の速度を3~4等級で上回る。
論文 参考訳(メタデータ) (2023-12-17T07:51:38Z) - Improving In-Context Learning in Diffusion Models with Visual
Context-Modulated Prompts [83.03471704115786]
本研究では,改良型プロンプト拡散(iPromptDiff)を紹介する。
iPromptDiffは、視覚コンテキストを埋め込みベクトルに変換するエンドツーエンドのトレーニングされた視覚エンコーダを統合する。
拡散に基づく視覚基盤モデルにおいて,この視覚的文脈変調テキストガイダンスと標準制御ネット構造を組み込んだ場合,多種多様な学習課題における多目的性と堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2023-12-03T14:15:52Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and
Benchmarks [88.44377206798484]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
我々は、イベントベースのビジョンのためのDL技術の最新の開発に焦点をあてて、包括的で詳細な調査を初めて実施する。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Deep Neural Network-based Enhancement for Image and Video Streaming
Systems: A Survey and Future Directions [20.835654670825782]
ディープラーニングは、品質の低い画像から高品質な画像を生成する上で、前例のないパフォーマンスをもたらした。
本稿では,高速応答時間と高画質を実現する上で重要な要素として,ニューラルエンハンスメントを用いた最新のコンテンツ配信システムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:42:36Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z) - Towards Deep Learning Methods for Quality Assessment of
Computer-Generated Imagery [2.580765958706854]
従来のビデオコンテンツとは対照的に、ゲームコンテンツはいくつかのゲームにおいて非常に高い動きのような特別な特徴を持つ。
本稿では,ゲーム品質評価のためのディープラーニングベースの品質指標を構築する計画について概説する。
論文 参考訳(メタデータ) (2020-05-02T14:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。