論文の概要: Neural Enhancement in Content Delivery Systems: The State-of-the-Art and
Future Directions
- arxiv url: http://arxiv.org/abs/2010.05838v2
- Date: Thu, 22 Oct 2020 12:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 08:10:29.325851
- Title: Neural Enhancement in Content Delivery Systems: The State-of-the-Art and
Future Directions
- Title(参考訳): コンテンツ配信システムにおけるニューラルエンハンスメント:最新技術と今後の展望
- Authors: Royson Lee, Stylianos I. Venieris, Nicholas D. Lane
- Abstract要約: ディープラーニングは、品質の低い画像から高品質な画像を生成する上で、前例のないパフォーマンスをもたらした。
本稿では,高速応答時間と高画質を実現する上で重要な要素として,ニューラルエンハンスメントを用いた最新のコンテンツ配信システムを提案する。
- 参考スコア(独自算出の注目度): 16.04084457087104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet-enabled smartphones and ultra-wide displays are transforming a
variety of visual apps spanning from on-demand movies and 360-degree videos to
video-conferencing and live streaming. However, robustly delivering visual
content under fluctuating networking conditions on devices of diverse
capabilities remains an open problem. In recent years, advances in the field of
deep learning on tasks such as super-resolution and image enhancement have led
to unprecedented performance in generating high-quality images from low-quality
ones, a process we refer to as neural enhancement. In this paper, we survey
state-of-the-art content delivery systems that employ neural enhancement as a
key component in achieving both fast response time and high visual quality. We
first present the deployment challenges of neural enhancement models. We then
cover systems targeting diverse use-cases and analyze their design decisions in
overcoming technical challenges. Moreover, we present promising directions
based on the latest insights from deep learning research to further boost the
quality of experience of these systems.
- Abstract(参考訳): インターネット対応のスマートフォンとウルトラワイドディスプレイは、オンデマンド映画から360度ビデオ、ビデオ会議やライブストリーミングまで、さまざまなビジュアルアプリを変えつつある。
しかしながら、多様な能力を持つデバイス上で変動するネットワーク条件下での視覚的コンテンツの堅牢な配信は、いまだに未解決の問題である。
近年,超解像や画像強調などのタスクにおける深層学習の進歩は,低品質の画像から高品質な画像を生成する上で,前例のないパフォーマンスをもたらしている。
本稿では,高速応答時間と高画質を実現する上で重要な要素としてニューラルエンハンスメントを用いた最先端コンテンツ配信システムについて検討する。
まず,ニューラルエンハンスメントモデルの展開課題について述べる。
次に、さまざまなユースケースを対象とするシステムをカバーし、技術的課題を克服するための設計決定を分析する。
さらに,これらのシステムにおける経験の質をさらに向上させるため,深層学習研究の最新の知見に基づく有望な方向性を示す。
関連論文リスト
- ESVQA: Perceptual Quality Assessment of Egocentric Spatial Videos [71.62145804686062]
我々は,600個のエゴセントリックな空間ビデオとそれらの平均評価スコア(MOS)からなる,最初のエゴセントリックな空間ビデオ品質評価データベース(ESVQAD)を紹介する。
両眼の空間, 動き, 意味的特徴を統合し, 知覚品質を予測できる新しい多次元両眼機能融合モデル ESVQAnet を提案する。
ESVQAnetは知覚品質評価タスクにおいて16の最先端VQAモデルより優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-12-29T10:13:30Z) - UniReal: Universal Image Generation and Editing via Learning Real-world Dynamics [74.10447111842504]
UniRealは、様々な画像生成および編集タスクに対処するために設計された統一されたフレームワークである。
近年の映像生成モデルに着想を得て,画像レベルのタスクを不連続な映像生成として扱う統一的手法を提案する。
画像レベルのタスク用に設計されているが、ユニバーサルな監視のためのスケーラブルなソースとしてビデオを活用している。
論文 参考訳(メタデータ) (2024-12-10T18:59:55Z) - Video Quality Assessment: A Comprehensive Survey [55.734935003021576]
映像品質評価(VQA)は,映像の品質を知覚された品質の人間の判断と整合した方法で予測することを目的とした,重要な処理課題である。
本稿では,VQAアルゴリズムの開発における最近の進歩と,それらを実現するためのベンチマーク研究とデータベースについて述べる。
論文 参考訳(メタデータ) (2024-12-04T05:25:17Z) - Perceptually Optimized Super Resolution [7.728090438152828]
超高解像度技術における視覚的品質と効率を制御するために,知覚にインスパイアされ,アーキテクチャに依存しない手法を提案する。
コアは知覚モデルであり、画像の詳細に対する人間の感度に応じて動的に超解像法を導く。
本稿では,ネットワーク分岐とネットワーク複雑性の低減を併用して提案手法の適用を実証し,可視品質損失を伴わない超解像法の計算効率の向上を図った。
論文 参考訳(メタデータ) (2024-11-26T15:24:45Z) - VQA$^2$: Visual Question Answering for Video Quality Assessment [76.81110038738699]
ビデオ品質アセスメント(VQA)は、低レベルの視覚知覚において古典的な分野である。
画像領域における最近の研究は、視覚質問応答(VQA)が視覚的品質を著しく低レベルに評価できることを示した。
VQA2インストラクションデータセットは,ビデオ品質評価に焦点をあてた最初の視覚的質問応答インストラクションデータセットである。
VQA2シリーズは、ビデオにおける空間的時間的品質の詳細の知覚を高めるために、視覚的および運動的トークンをインターリーブする。
論文 参考訳(メタデータ) (2024-11-06T09:39:52Z) - Transformer-based Image and Video Inpainting: Current Challenges and Future Directions [5.2088618044533215]
塗り絵は、写真復元、ビデオ編集、医用画像撮影など、様々な応用に有効なソリューションである。
CNNとGAN(Generative Adversarial Network)は、インペイントタスクを大幅に強化した。
ビジュアルトランスフォーマーが利用され、画像やビデオのインペイントにいくつかの改善が加えられている。
論文 参考訳(メタデータ) (2024-06-28T20:42:36Z) - Chain-of-Spot: Interactive Reasoning Improves Large Vision-Language Models [81.71651422951074]
CoS(Chain-of-Spot)法は,注目領域に着目して特徴抽出を強化する手法である。
この技術により、LVLMは元の画像解像度を変更することなく、より詳細な視覚情報にアクセスすることができる。
実験の結果,LVLMの視覚的内容の理解と推論能力は著しく改善した。
論文 参考訳(メタデータ) (2024-03-19T17:59:52Z) - Reimagining Reality: A Comprehensive Survey of Video Inpainting
Techniques [6.36998581871295]
ビデオ・インペイント(英: Video inpainting)とは、ビデオ・シーケンスの欠落や破損した部分を再生または埋めるプロセスである。
本研究は, 主要な技術, その基盤となる理論, 有効利用を分解する。
我々は、視覚的品質を評価するために人間中心のアプローチを採用し、異なる映像塗装技術の出力を評価するためにアノテータのパネルを登録する。
論文 参考訳(メタデータ) (2024-01-31T14:41:40Z) - A Survey on Super Resolution for video Enhancement Using GAN [0.0]
Generative Adversarial Networksのようなディープラーニングアルゴリズムを用いた超高解像度画像とビデオの最近の発展について紹介する。
低解像度ビデオの視覚的明快さと品質の向上を目指す進歩は、監視技術から医用画像まで、さまざまな分野で大きな可能性を秘めている。
このコレクションは、ジェネレーティブ・アドバイサル・ネットワークの広い分野に展開し、その原則、トレーニング・アプローチ、幅広い領域にわたるアプリケーションについて探求している。
論文 参考訳(メタデータ) (2023-12-27T08:41:38Z) - Deep Neural Network-based Enhancement for Image and Video Streaming
Systems: A Survey and Future Directions [20.835654670825782]
ディープラーニングは、品質の低い画像から高品質な画像を生成する上で、前例のないパフォーマンスをもたらした。
本稿では,高速応答時間と高画質を実現する上で重要な要素として,ニューラルエンハンスメントを用いた最新のコンテンツ配信システムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:42:36Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。