論文の概要: A Comprehensively Adaptive Architectural Optimization-Ingrained Quantum Neural Network Model for Cloud Workloads Prediction
- arxiv url: http://arxiv.org/abs/2507.08317v1
- Date: Fri, 11 Jul 2025 05:07:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.246128
- Title: A Comprehensively Adaptive Architectural Optimization-Ingrained Quantum Neural Network Model for Cloud Workloads Prediction
- Title(参考訳): クラウドワークロード予測のための網羅的適応型アーキテクチャ最適化-量子ニューラルネットワークモデル
- Authors: Jitendra Kumar, Deepika Saxena, Kishu Gupta, Satyam Kumar, Ashutosh Kumar Singh,
- Abstract要約: 本研究は、網羅的適応型アーキテクチャ最適化に基づく可変量子ニューラルネットワーク(CA-QNN)を提案する。
このモデルは、作業負荷データをqubitに変換し、直感的なパターン認識のための制御NOTゲートアクティベーション機能を備えたキュービットニューロンを通して処理する。
提案モデルでは,既存のディープラーニングやQNNベースのアプローチと比較して,予測誤差を最大93.40%,91.27%削減し,予測精度を向上する。
- 参考スコア(独自算出の注目度): 4.501295034557007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate workload prediction and advanced resource reservation are indispensably crucial for managing dynamic cloud services. Traditional neural networks and deep learning models frequently encounter challenges with diverse, high-dimensional workloads, especially during sudden resource demand changes, leading to inefficiencies. This issue arises from their limited optimization during training, relying only on parametric (inter-connection weights) adjustments using conventional algorithms. To address this issue, this work proposes a novel Comprehensively Adaptive Architectural Optimization-based Variable Quantum Neural Network (CA-QNN), which combines the efficiency of quantum computing with complete structural and qubit vector parametric learning. The model converts workload data into qubits, processed through qubit neurons with Controlled NOT-gated activation functions for intuitive pattern recognition. In addition, a comprehensive architecture optimization algorithm for networks is introduced to facilitate the learning and propagation of the structure and parametric values in variable-sized QNNs. This algorithm incorporates quantum adaptive modulation and size-adaptive recombination during training process. The performance of CA-QNN model is thoroughly investigated against seven state-of-the-art methods across four benchmark datasets of heterogeneous cloud workloads. The proposed model demonstrates superior prediction accuracy, reducing prediction errors by up to 93.40% and 91.27% compared to existing deep learning and QNN-based approaches.
- Abstract(参考訳): 動的クラウドサービスを管理するためには、正確なワークロード予測と高度なリソース予約が不可欠です。
従来のニューラルネットワークとディープラーニングモデルは、特に突然のリソース需要の変化時に、多様で高次元のワークロードでしばしば課題に直面する。
この問題は、従来のアルゴリズムを用いたパラメトリック(インターコネクションウェイト)調整のみに依存する、トレーニング中の最適化の制限から生じる。
この問題に対処するため、本研究では、量子コンピューティングの効率と完全な構造と量子ベクトルパラメトリック学習を組み合わせた、網羅的適応型アーキテクチャ最適化に基づく可変量子ニューラルネットワーク(CA-QNN)を提案する。
このモデルは、作業負荷データをqubitに変換し、直感的なパターン認識のための制御NOTゲートアクティベーション機能を備えたキュービットニューロンを通して処理する。
さらに,ネットワークの網羅的アーキテクチャ最適化アルゴリズムを導入し,可変サイズのQNNにおける構造とパラメトリック値の学習と伝播を容易にする。
このアルゴリズムは、トレーニングプロセス中に量子適応変調とサイズ適応的再結合を組み込む。
CA-QNNモデルの性能は、異種クラウドワークロードの4つのベンチマークデータセットにまたがる7つの最先端手法に対して徹底的に調査されている。
提案モデルでは,既存のディープラーニングやQNNベースのアプローチと比較して,予測誤差を最大93.40%,91.27%削減し,予測精度を向上する。
関連論文リスト
- Adaptive Neural Quantum States: A Recurrent Neural Network Perspective [0.7234862895932991]
ニューラルネットワーク量子状態(NQS)を最適化する適応スキームを示す。
NQSは、量子多体物理学を研究するための有望なツールとして登場した強力なニューラルネットワークアンゼである。
論文 参考訳(メタデータ) (2025-07-24T18:00:03Z) - Selective Feature Re-Encoded Quantum Convolutional Neural Network with Joint Optimization for Image Classification [3.8876018618878585]
量子畳み込みニューラルネットワーク(QCNN)は、量子データと古典データの両方を分類する有望な結果を実証している。
本研究では,特徴処理の高度化と分類精度向上のためのQCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-07-02T18:51:56Z) - Optimizing Deep Neural Networks using Safety-Guided Self Compression [0.0]
本研究では,ニューラルネットワークの重み付けと定量化を行う新しい安全性駆動量子化フレームワークを提案する。
提案手法は、畳み込みニューラルネットワーク(CNN)とアテンションベース言語モデルの両方で厳格に評価される。
実験結果から,本フレームワークは,従来の未定量モデルと比較して,テスト精度を最大2.5%向上することがわかった。
論文 参考訳(メタデータ) (2025-05-01T06:50:30Z) - A Quantum Neural Network Transfer-Learning Model for Forecasting Problems with Continuous and Discrete Variables [0.0]
本研究では、タスク予測のための伝達学習手法として、単純で効果的な連続変数および離散変数量子ニューラルネットワーク(QNN)モデルを提案する。
CV-QNNは2つの量子ビットを持つ単一の量子層を備え、絡み合いを確立し、最小限の量子ゲートを使用する。
このモデルの凍結パラメータは、エネルギー消費、交通の流れ、気象条件、暗号通貨の価格予測など、様々な予測タスクにうまく適用されている。
論文 参考訳(メタデータ) (2025-03-04T22:38:51Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Lean classical-quantum hybrid neural network model for image classification [12.353900068459446]
本稿では,変分回路の4層のみを用いて,効率的な分類性能を実現するLan Classical-Quantum Hybrid Neural Network (LCQHNN)を提案する。
我々の実験は、LCQHNNがMNIST、FashionMNIST、CIFAR-10データセットの100%、99.02%、85.55%の分類精度を達成することを示した。
論文 参考訳(メタデータ) (2024-12-03T00:37:11Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Edge Inference with Fully Differentiable Quantized Mixed Precision
Neural Networks [1.131071436917293]
パラメータと演算をビット精度の低いものに量子化することで、ニューラルネットワークの推論にかなりのメモリとエネルギーを節約できる。
本稿では,エッジ計算を対象とする混合精度畳み込みニューラルネットワーク(CNN)の量子化手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:11:37Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。