論文の概要: Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks
- arxiv url: http://arxiv.org/abs/2108.06817v1
- Date: Sun, 15 Aug 2021 21:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:49:56.073356
- Title: Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks
- Title(参考訳): 画像から学ぶ:並列畳み込みニューラルネットワークによる能動的キャッシング
- Authors: Yantong Wang, Ye Hu, Zhaohui Yang, Walid Saad, Kai-Kit Wong, Vasilis
Friderikos
- Abstract要約: 本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
- 参考スコア(独自算出の注目度): 94.85780721466816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the continuous trend of data explosion, delivering packets from data
servers to end users causes increased stress on both the fronthaul and backhaul
traffic of mobile networks. To mitigate this problem, caching popular content
closer to the end-users has emerged as an effective method for reducing network
congestion and improving user experience. To find the optimal locations for
content caching, many conventional approaches construct various mixed integer
linear programming (MILP) models. However, such methods may fail to support
online decision making due to the inherent curse of dimensionality. In this
paper, a novel framework for proactive caching is proposed. This framework
merges model-based optimization with data-driven techniques by transforming an
optimization problem into a grayscale image. For parallel training and simple
design purposes, the proposed MILP model is first decomposed into a number of
sub-problems and, then, convolutional neural networks (CNNs) are trained to
predict content caching locations of these sub-problems. Furthermore, since the
MILP model decomposition neglects the internal effects among sub-problems, the
CNNs' outputs have the risk to be infeasible solutions. Therefore, two
algorithms are provided: the first uses predictions from CNNs as an extra
constraint to reduce the number of decision variables; the second employs CNNs'
outputs to accelerate local search. Numerical results show that the proposed
scheme can reduce 71.6% computation time with only 0.8% additional performance
cost compared to the MILP solution, which provides high quality decision making
in real-time.
- Abstract(参考訳): データ爆発の連続的なトレンドにより、データサーバからエンドユーザへのパケット配信は、モバイルネットワークのフロントホールとバックホールの両方のトラフィックのストレスを増大させる。
この問題を軽減するために,ネットワークの混雑を低減し,ユーザエクスペリエンスを向上させる効果的な方法として,エンドユーザーに近い人気コンテンツをキャッシュする手法が登場した。
コンテンツキャッシングの最適な場所を見つけるために、多くの従来の手法が様々な混合整数線形プログラミング(MILP)モデルを構築している。
しかし、このような手法は、次元性の固有の呪いのため、オンライン意思決定をサポートしない可能性がある。
本稿では,アクティブキャッシュのための新しいフレームワークを提案する。
このフレームワークは、最適化問題をグレースケールの画像に変換することで、モデルベースの最適化とデータ駆動技術を統合する。
並列トレーニングとシンプルな設計のために、提案したMILPモデルは、まず複数のサブプロブレムに分解され、その後、畳み込みニューラルネットワーク(CNN)がこれらのサブプロブレムのコンテンツキャッシング位置を予測するように訓練される。
さらに、MILPモデルの分解はサブプロブレムの内部効果を無視しているため、CNNの出力は実現不可能な解決策となるリスクがある。
そのため、第1のアルゴリズムはCNNからの予測を余分な制約として使用し、第2のアルゴリズムはローカル検索を高速化するためにCNNの出力を使用する。
数値計算の結果,提案手法は,リアルタイムに高品質な意思決定を提供するmilpソリューションと比較して,計算時間を71.6%削減し,パフォーマンスコストをわずか0.8%増やすことが判明した。
関連論文リスト
- A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Training Latency Minimization for Model-Splitting Allowed Federated Edge
Learning [16.8717239856441]
我々は,深層ニューラルネットワーク(DNN)の訓練において,クライアントが直面する計算能力の不足を軽減するためのモデル分割許容FL(SFL)フレームワークを提案する。
同期したグローバルアップデート設定では、グローバルトレーニングを完了するためのレイテンシは、クライアントがローカルトレーニングセッションを完了するための最大レイテンシによって決定される。
この混合整数非線形計画問題の解法として,AIモデルのカット層と他のパラメータの量的関係に適合する回帰法を提案し,TLMPを連続的な問題に変換する。
論文 参考訳(メタデータ) (2023-07-21T12:26:42Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Multi-objective Evolutionary Approach for Efficient Kernel Size and
Shape for CNN [12.697368516837718]
VGGNetやResNetのようなCNNトポロジにおける最先端の開発は、ますます正確になっている。
これらのネットワークは数十億の演算とパラメータを含む計算コストが高い。
本稿では,畳み込み層におけるカーネルのサイズと数を削減することにより,計算資源の消費を最適化することを検討する。
論文 参考訳(メタデータ) (2021-06-28T14:47:29Z) - Partitioning sparse deep neural networks for scalable training and
inference [8.282177703075453]
最先端のディープニューラルネットワーク(DNN)には、計算とデータ管理の大幅な要件がある。
スパシフィケーション法とプルーニング法は,DNNの大量の接続を除去するのに有効であることが示されている。
その結果得られたスパースネットワークは、ディープラーニングにおけるトレーニングと推論の計算効率をさらに向上するためのユニークな課題を提示する。
論文 参考訳(メタデータ) (2021-04-23T20:05:52Z) - CNN Acceleration by Low-rank Approximation with Quantized Factors [9.654865591431593]
現代の畳み込みニューラルネットワークは複雑なコンピュータビジョンタスクの解決において大きな成果を上げているが、モバイルや組み込みデバイスでは効果的に利用できない。
この問題を解決するために、タッカー形式の低ランクテンソル近似と重みの量子化と特徴写像(アクティベーション)という2つの既知の手法を組み合わせた新しい手法を提案する。
CIFAR-10, CIFAR-100, Imagenet分類タスクにおけるResNet18とResNet34の効率を実証した。
論文 参考訳(メタデータ) (2020-06-16T02:28:05Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。