論文の概要: Neural Enhancement in Content Delivery Systems: The State-of-the-Art and
Future Directions
- arxiv url: http://arxiv.org/abs/2010.05838v2
- Date: Thu, 22 Oct 2020 12:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 08:10:29.325851
- Title: Neural Enhancement in Content Delivery Systems: The State-of-the-Art and
Future Directions
- Title(参考訳): コンテンツ配信システムにおけるニューラルエンハンスメント:最新技術と今後の展望
- Authors: Royson Lee, Stylianos I. Venieris, Nicholas D. Lane
- Abstract要約: ディープラーニングは、品質の低い画像から高品質な画像を生成する上で、前例のないパフォーマンスをもたらした。
本稿では,高速応答時間と高画質を実現する上で重要な要素として,ニューラルエンハンスメントを用いた最新のコンテンツ配信システムを提案する。
- 参考スコア(独自算出の注目度): 16.04084457087104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet-enabled smartphones and ultra-wide displays are transforming a
variety of visual apps spanning from on-demand movies and 360-degree videos to
video-conferencing and live streaming. However, robustly delivering visual
content under fluctuating networking conditions on devices of diverse
capabilities remains an open problem. In recent years, advances in the field of
deep learning on tasks such as super-resolution and image enhancement have led
to unprecedented performance in generating high-quality images from low-quality
ones, a process we refer to as neural enhancement. In this paper, we survey
state-of-the-art content delivery systems that employ neural enhancement as a
key component in achieving both fast response time and high visual quality. We
first present the deployment challenges of neural enhancement models. We then
cover systems targeting diverse use-cases and analyze their design decisions in
overcoming technical challenges. Moreover, we present promising directions
based on the latest insights from deep learning research to further boost the
quality of experience of these systems.
- Abstract(参考訳): インターネット対応のスマートフォンとウルトラワイドディスプレイは、オンデマンド映画から360度ビデオ、ビデオ会議やライブストリーミングまで、さまざまなビジュアルアプリを変えつつある。
しかしながら、多様な能力を持つデバイス上で変動するネットワーク条件下での視覚的コンテンツの堅牢な配信は、いまだに未解決の問題である。
近年,超解像や画像強調などのタスクにおける深層学習の進歩は,低品質の画像から高品質な画像を生成する上で,前例のないパフォーマンスをもたらしている。
本稿では,高速応答時間と高画質を実現する上で重要な要素としてニューラルエンハンスメントを用いた最先端コンテンツ配信システムについて検討する。
まず,ニューラルエンハンスメントモデルの展開課題について述べる。
次に、さまざまなユースケースを対象とするシステムをカバーし、技術的課題を克服するための設計決定を分析する。
さらに,これらのシステムにおける経験の質をさらに向上させるため,深層学習研究の最新の知見に基づく有望な方向性を示す。
関連論文リスト
- Perceptually Optimized Super Resolution [7.728090438152828]
超高解像度技術における視覚的品質と効率を制御するために,知覚にインスパイアされ,アーキテクチャに依存しない手法を提案する。
コアは知覚モデルであり、画像の詳細に対する人間の感度に応じて動的に超解像法を導く。
本稿では,ネットワーク分岐とネットワーク複雑性の低減を併用して提案手法の適用を実証し,可視品質損失を伴わない超解像法の計算効率の向上を図った。
論文 参考訳(メタデータ) (2024-11-26T15:24:45Z) - VQA$^2$: Visual Question Answering for Video Quality Assessment [76.81110038738699]
ビデオ品質アセスメント(VQA)は、低レベルの視覚知覚において古典的な分野である。
画像領域における最近の研究は、視覚質問応答(VQA)が視覚的品質を著しく低レベルに評価できることを示した。
VQA2インストラクションデータセットは,ビデオ品質評価に焦点をあてた最初の視覚的質問応答インストラクションデータセットである。
VQA2シリーズは、ビデオにおける空間的時間的品質の詳細の知覚を高めるために、視覚的および運動的トークンをインターリーブする。
論文 参考訳(メタデータ) (2024-11-06T09:39:52Z) - Transformer-based Image and Video Inpainting: Current Challenges and Future Directions [5.2088618044533215]
塗り絵は、写真復元、ビデオ編集、医用画像撮影など、様々な応用に有効なソリューションである。
CNNとGAN(Generative Adversarial Network)は、インペイントタスクを大幅に強化した。
ビジュアルトランスフォーマーが利用され、画像やビデオのインペイントにいくつかの改善が加えられている。
論文 参考訳(メタデータ) (2024-06-28T20:42:36Z) - Chain-of-Spot: Interactive Reasoning Improves Large Vision-Language Models [81.71651422951074]
CoS(Chain-of-Spot)法は,注目領域に着目して特徴抽出を強化する手法である。
この技術により、LVLMは元の画像解像度を変更することなく、より詳細な視覚情報にアクセスすることができる。
実験の結果,LVLMの視覚的内容の理解と推論能力は著しく改善した。
論文 参考訳(メタデータ) (2024-03-19T17:59:52Z) - Reimagining Reality: A Comprehensive Survey of Video Inpainting
Techniques [6.36998581871295]
ビデオ・インペイント(英: Video inpainting)とは、ビデオ・シーケンスの欠落や破損した部分を再生または埋めるプロセスである。
本研究は, 主要な技術, その基盤となる理論, 有効利用を分解する。
我々は、視覚的品質を評価するために人間中心のアプローチを採用し、異なる映像塗装技術の出力を評価するためにアノテータのパネルを登録する。
論文 参考訳(メタデータ) (2024-01-31T14:41:40Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - A Survey on Super Resolution for video Enhancement Using GAN [0.0]
Generative Adversarial Networksのようなディープラーニングアルゴリズムを用いた超高解像度画像とビデオの最近の発展について紹介する。
低解像度ビデオの視覚的明快さと品質の向上を目指す進歩は、監視技術から医用画像まで、さまざまな分野で大きな可能性を秘めている。
このコレクションは、ジェネレーティブ・アドバイサル・ネットワークの広い分野に展開し、その原則、トレーニング・アプローチ、幅広い領域にわたるアプリケーションについて探求している。
論文 参考訳(メタデータ) (2023-12-27T08:41:38Z) - Artificial intelligence optical hardware empowers high-resolution
hyperspectral video understanding at 1.2 Tb/s [53.91923493664551]
本研究は,多次元映像理解のためのハードウェアアクセラレーション型集積光電子プラットフォームをリアルタイムに導入する。
この技術プラットフォームは、人工知能ハードウェアと光学的に情報を処理し、最先端のマシンビジョンネットワークを組み合わせる。
このような性能は、類似のスペクトル分解能を持つ最も近い技術の速度を3~4等級で上回る。
論文 参考訳(メタデータ) (2023-12-17T07:51:38Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Deep Neural Network-based Enhancement for Image and Video Streaming
Systems: A Survey and Future Directions [20.835654670825782]
ディープラーニングは、品質の低い画像から高品質な画像を生成する上で、前例のないパフォーマンスをもたらした。
本稿では,高速応答時間と高画質を実現する上で重要な要素として,ニューラルエンハンスメントを用いた最新のコンテンツ配信システムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:42:36Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。