論文の概要: DeepNetQoE: Self-adaptive QoE Optimization Framework of Deep Networks
- arxiv url: http://arxiv.org/abs/2007.10878v1
- Date: Fri, 17 Jul 2020 01:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:49:24.905217
- Title: DeepNetQoE: Self-adaptive QoE Optimization Framework of Deep Networks
- Title(参考訳): deepnetqoe:ディープネットワークの自己適応qoe最適化フレームワーク
- Authors: Rui Wang, Min Chen, Nadra Guizani, Yong Li, Hamid Gharavi, Kai Hwang
- Abstract要約: 本稿では、ディープネットワークのトレーニングをガイドするために、自己適応型クオリティ・オブ・エクスペリエンス(QoE)フレームワークであるDeepNetQoEを提案する。
自己適応型QoEモデルを設定し、モデルの精度とトレーニングに必要なコンピューティングリソースを関連付ける。
- 参考スコア(独自算出の注目度): 17.2356240313874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Future advances in deep learning and its impact on the development of
artificial intelligence (AI) in all fields depends heavily on data size and
computational power. Sacrificing massive computing resources in exchange for
better precision rates of the network model is recognized by many researchers.
This leads to huge computing consumption and satisfactory results are not
always expected when computing resources are limited. Therefore, it is
necessary to find a balance between resources and model performance to achieve
satisfactory results. This article proposes a self-adaptive quality of
experience (QoE) framework, DeepNetQoE, to guide the training of deep networks.
A self-adaptive QoE model is set up that relates the model's accuracy with the
computing resources required for training which will allow the experience value
of the model to improve. To maximize the experience value when computer
resources are limited, a resource allocation model and solutions need to be
established. In addition, we carry out experiments based on four network models
to analyze the experience values with respect to the crowd counting example.
Experimental results show that the proposed DeepNetQoE is capable of adaptively
obtaining a high experience value according to user needs and therefore guiding
users to determine the computational resources allocated to the network models.
- Abstract(参考訳): ディープラーニングの今後の進歩と、あらゆる分野における人工知能(AI)の発展への影響は、データサイズと計算能力に大きく依存する。
ネットワークモデルの精度向上と引き換えに大量の計算資源を節約することは、多くの研究者によって認められている。
計算資源が限られている場合、必ずしも満足できる結果が期待されない。
したがって、満足な結果を得るためには、リソースとモデル性能のバランスを見つける必要がある。
本稿では,ディープネットワークのトレーニングを指導するために,自己適応型qoeフレームワークであるdeepnetqoeを提案する。
モデルの正確さとトレーニングに必要な計算リソースを関連付ける自己適応qoeモデルが設定され、モデルの体験価値が改善される。
コンピュータ資源が限られている場合の体験価値を最大化するためには、リソース割り当てモデルとソリューションを確立する必要がある。
さらに,4つのネットワークモデルに基づく実験を行い,観衆数に関する経験値の分析を行った。
実験結果から,提案したDeepNetQoEは,ユーザのニーズに応じて高い経験値を得ることができ,ネットワークモデルに割り当てられた計算資源をユーザが決定できるようにする。
関連論文リスト
- A Multi-Fidelity Graph U-Net Model for Accelerated Physics Simulations [1.2430809884830318]
本稿では,GNNモデルの性能向上のための多元性手法の利点を生かした,新しいGNNアーキテクチャであるMulti-Fidelity U-Netを提案する。
提案手法は精度とデータ要求において有意に優れた性能を示すことを示す。
また,提案アーキテクチャの高速バージョンであるMulti-Fidelity U-Net Liteを35%高速化し,精度を2~5%削減した。
論文 参考訳(メタデータ) (2024-12-19T20:09:38Z) - To Train or Not to Train: Balancing Efficiency and Training Cost in Deep Reinforcement Learning for Mobile Edge Computing [15.079887992932692]
資源を割り当てるDeep Reinforcement Learning (DRL)エージェントをいつトレーニングするかを動的に選択するアルゴリズムを提案する。
トレーニングのオーバーヘッドを伴うシナリオに対して直接適用することができるので,本手法は極めて一般的である。
論文 参考訳(メタデータ) (2024-11-11T16:02:12Z) - Online Resource Allocation for Edge Intelligence with Colocated Model Retraining and Inference [5.6679198251041765]
我々は、トレーニングモデルと推論の精度を適応的にバランスするリソース割り当てを最適化するために、ORRICというオンライン近似アルゴリズムを導入する。
ORRICの競合比は従来の推論オンリーパラダイムよりも優れている。
論文 参考訳(メタデータ) (2024-05-25T03:05:19Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Digital Twin-Assisted Knowledge Distillation Framework for Heterogeneous
Federated Learning [14.003355837801879]
連合学習のための知識蒸留(KD)駆動学習フレームワークを提案する。
各ユーザは、オンデマンドでニューラルネットワークモデルを選択し、独自のプライベートデータセットを使用して、大きな教師モデルから知識を抽出することができる。
デジタルツイン(DT)は、コンピュータリソースが十分あるサーバ内のDTで教師モデルをトレーニングする方法である。
論文 参考訳(メタデータ) (2023-03-10T15:14:24Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - DNNAbacus: Toward Accurate Computational Cost Prediction for Deep Neural
Networks [0.9896984829010892]
本稿では,29の古典的ディープニューラルネットワークの計算資源要求を調査し,計算コストを予測するための正確なモデルを構築した。
ネットワーク表現のための新しいネットワーク構造行列を用いた軽量な予測手法DNNAbacusを提案する。
実験の結果, 平均相対誤差 (MRE) は時間に対して0.9%, メモリに関しては2.8%であった。
論文 参考訳(メタデータ) (2022-05-24T14:21:27Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。