論文の概要: DeepNetQoE: Self-adaptive QoE Optimization Framework of Deep Networks
- arxiv url: http://arxiv.org/abs/2007.10878v1
- Date: Fri, 17 Jul 2020 01:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:49:24.905217
- Title: DeepNetQoE: Self-adaptive QoE Optimization Framework of Deep Networks
- Title(参考訳): deepnetqoe:ディープネットワークの自己適応qoe最適化フレームワーク
- Authors: Rui Wang, Min Chen, Nadra Guizani, Yong Li, Hamid Gharavi, Kai Hwang
- Abstract要約: 本稿では、ディープネットワークのトレーニングをガイドするために、自己適応型クオリティ・オブ・エクスペリエンス(QoE)フレームワークであるDeepNetQoEを提案する。
自己適応型QoEモデルを設定し、モデルの精度とトレーニングに必要なコンピューティングリソースを関連付ける。
- 参考スコア(独自算出の注目度): 17.2356240313874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Future advances in deep learning and its impact on the development of
artificial intelligence (AI) in all fields depends heavily on data size and
computational power. Sacrificing massive computing resources in exchange for
better precision rates of the network model is recognized by many researchers.
This leads to huge computing consumption and satisfactory results are not
always expected when computing resources are limited. Therefore, it is
necessary to find a balance between resources and model performance to achieve
satisfactory results. This article proposes a self-adaptive quality of
experience (QoE) framework, DeepNetQoE, to guide the training of deep networks.
A self-adaptive QoE model is set up that relates the model's accuracy with the
computing resources required for training which will allow the experience value
of the model to improve. To maximize the experience value when computer
resources are limited, a resource allocation model and solutions need to be
established. In addition, we carry out experiments based on four network models
to analyze the experience values with respect to the crowd counting example.
Experimental results show that the proposed DeepNetQoE is capable of adaptively
obtaining a high experience value according to user needs and therefore guiding
users to determine the computational resources allocated to the network models.
- Abstract(参考訳): ディープラーニングの今後の進歩と、あらゆる分野における人工知能(AI)の発展への影響は、データサイズと計算能力に大きく依存する。
ネットワークモデルの精度向上と引き換えに大量の計算資源を節約することは、多くの研究者によって認められている。
計算資源が限られている場合、必ずしも満足できる結果が期待されない。
したがって、満足な結果を得るためには、リソースとモデル性能のバランスを見つける必要がある。
本稿では,ディープネットワークのトレーニングを指導するために,自己適応型qoeフレームワークであるdeepnetqoeを提案する。
モデルの正確さとトレーニングに必要な計算リソースを関連付ける自己適応qoeモデルが設定され、モデルの体験価値が改善される。
コンピュータ資源が限られている場合の体験価値を最大化するためには、リソース割り当てモデルとソリューションを確立する必要がある。
さらに,4つのネットワークモデルに基づく実験を行い,観衆数に関する経験値の分析を行った。
実験結果から,提案したDeepNetQoEは,ユーザのニーズに応じて高い経験値を得ることができ,ネットワークモデルに割り当てられた計算資源をユーザが決定できるようにする。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Digital Twin-Assisted Knowledge Distillation Framework for Heterogeneous
Federated Learning [14.003355837801879]
連合学習のための知識蒸留(KD)駆動学習フレームワークを提案する。
各ユーザは、オンデマンドでニューラルネットワークモデルを選択し、独自のプライベートデータセットを使用して、大きな教師モデルから知識を抽出することができる。
デジタルツイン(DT)は、コンピュータリソースが十分あるサーバ内のDTで教師モデルをトレーニングする方法である。
論文 参考訳(メタデータ) (2023-03-10T15:14:24Z) - IB-UQ: Information bottleneck based uncertainty quantification for
neural function regression and neural operator learning [11.5992081385106]
本稿では,科学的機械学習タスクのための情報ボトルネック(IB-UQ)による不確実性定量化のための新しいフレームワークを提案する。
我々は,入力データの信頼度に応じて,入力を潜在表現に符号化する信頼認識エンコーダによってボトルネックを埋め込む。
また,外挿不確かさの質を高めるために,データ拡張に基づく情報ボトルネック目標を提案する。
論文 参考訳(メタデータ) (2023-02-07T05:56:42Z) - DNNAbacus: Toward Accurate Computational Cost Prediction for Deep Neural
Networks [0.9896984829010892]
本稿では,29の古典的ディープニューラルネットワークの計算資源要求を調査し,計算コストを予測するための正確なモデルを構築した。
ネットワーク表現のための新しいネットワーク構造行列を用いた軽量な予測手法DNNAbacusを提案する。
実験の結果, 平均相対誤差 (MRE) は時間に対して0.9%, メモリに関しては2.8%であった。
論文 参考訳(メタデータ) (2022-05-24T14:21:27Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Mitigating severe over-parameterization in deep convolutional neural
networks through forced feature abstraction and compression with an
entropy-based heuristic [7.503338065129185]
本稿では,エントロピーに基づく畳み込み層推定(EBCLE)を提案する。
EBCLEを用いて訓練したより広いが浅いモデルの相対的有効性を強調する実証的証拠を提示する。
論文 参考訳(メタデータ) (2021-06-27T10:34:39Z) - Balancing Accuracy and Latency in Multipath Neural Networks [0.09668407688201358]
我々は,一発のニューラルネットワーク探索モデルを用いて,難解な数のニューラルネットワークの性能を暗黙的に評価する。
本手法は,待ち時間が異なるモデル間の相対性能を正確にモデル化し,異なるデータセットをまたいだ精度で未検出モデルの性能を予測できることを示す。
論文 参考訳(メタデータ) (2021-04-25T00:05:48Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。