論文の概要: Quantum-Enhanced Parameter-Efficient Learning for Typhoon Trajectory Forecasting
- arxiv url: http://arxiv.org/abs/2505.09395v1
- Date: Wed, 14 May 2025 13:50:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.47963
- Title: Quantum-Enhanced Parameter-Efficient Learning for Typhoon Trajectory Forecasting
- Title(参考訳): 台風予測のための量子化パラメータ効率向上学習
- Authors: Chen-Yu Liu, Kuan-Cheng Chen, Yi-Chien Chen, Samuel Yen-Chi Chen, Wei-Hao Huang, Wei-Jia Huang, Yen-Jui Chang,
- Abstract要約: 台風予測モデル学習のためのQPA(Quantum Adaptation)を提案する。
QPAは、予測精度を維持しながらパラメータ効率のトレーニングを可能にする。
この研究は、大規模な台風軌道予測への量子機械学習(QML)の最初の応用である。
- 参考スコア(独自算出の注目度): 4.150720683153208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Typhoon trajectory forecasting is essential for disaster preparedness but remains computationally demanding due to the complexity of atmospheric dynamics and the resource requirements of deep learning models. Quantum-Train (QT), a hybrid quantum-classical framework that leverages quantum neural networks (QNNs) to generate trainable parameters exclusively during training, eliminating the need for quantum hardware at inference time. Building on QT's success across multiple domains, including image classification, reinforcement learning, flood prediction, and large language model (LLM) fine-tuning, we introduce Quantum Parameter Adaptation (QPA) for efficient typhoon forecasting model learning. Integrated with an Attention-based Multi-ConvGRU model, QPA enables parameter-efficient training while maintaining predictive accuracy. This work represents the first application of quantum machine learning (QML) to large-scale typhoon trajectory prediction, offering a scalable and energy-efficient approach to climate modeling. Our results demonstrate that QPA significantly reduces the number of trainable parameters while preserving performance, making high-performance forecasting more accessible and sustainable through hybrid quantum-classical learning.
- Abstract(参考訳): 台風の軌道予測は災害の準備には不可欠であるが、大気力学の複雑さと深層学習モデルの資源要求のために計算的に要求される。
量子トレイン(Quantum-Train、QT)は、量子ニューラルネットワーク(QNN)を活用してトレーニング中にのみトレーニング可能なパラメータを生成するハイブリッド量子古典フレームワークである。
画像分類,強化学習,洪水予測,大規模言語モデル(LLM)の微調整など,複数の領域にわたるQTの成功に基づいて,効率的な台風予知モデル学習のための量子パラメータ適応(QPA)を導入する。
Atention-based Multi-ConvGRUモデルと統合されたQPAは、予測精度を維持しながらパラメータ効率のトレーニングを可能にする。
この研究は、大規模台風軌道予測への量子機械学習(QML)の最初の応用であり、気候モデリングに対するスケーラブルでエネルギー効率の良いアプローチを提供する。
以上の結果から,QPAは性能を保ちながらトレーニング可能なパラメータの数を著しく削減し,ハイブリッド量子古典学習による高性能な予測をより使いやすくし,持続できることを示す。
関連論文リスト
- Hybrid Quantum Recurrent Neural Network For Remaining Useful Life Prediction [67.410870290301]
本稿では、量子長短期記憶層と古典的な高密度層を組み合わせたハイブリッド量子リカレントニューラルネットワークフレームワークを提案する。
実験の結果、トレーニング可能なパラメータが少ないにもかかわらず、Hybrid Quantum Recurrent Neural Networkは、リカレントニューラルネットワークよりも最大5%改善できることがわかった。
論文 参考訳(メタデータ) (2025-04-29T14:41:41Z) - Quantum-Assisted Machine Learning Models for Enhanced Weather Prediction [0.8458496687170665]
量子機械学習(QML)は、予測モデリング能力を改善するために量子コンピューティングを使用することで、天気予報に対する革命的なアプローチとして提示される。
本研究では,量子ゲート型リカレントユニット(QGRU),量子ニューラルネットワーク(QNN),量子長短期記憶(QLSTM),変分量子回路(VQC),量子支援ベクトルマシン(QSVM)などのQMLモデルを適用する。
その結果、QMLモデルは予測と分類の両方において、特に二項分類において妥当な精度を達成できることを示した。
本研究は、天気予報・舗装におけるQMLの実現可能性に関する知見を提供する。
論文 参考訳(メタデータ) (2025-03-30T12:03:27Z) - A Quantum Neural Network Transfer-Learning Model for Forecasting Problems with Continuous and Discrete Variables [0.0]
本研究では、タスク予測のための伝達学習手法として、単純で効果的な連続変数および離散変数量子ニューラルネットワーク(QNN)モデルを提案する。
CV-QNNは2つの量子ビットを持つ単一の量子層を備え、絡み合いを確立し、最小限の量子ゲートを使用する。
このモデルの凍結パラメータは、エネルギー消費、交通の流れ、気象条件、暗号通貨の価格予測など、様々な予測タスクにうまく適用されている。
論文 参考訳(メタデータ) (2025-03-04T22:38:51Z) - Data re-uploading in Quantum Machine Learning for time series: application to traffic forecasting [1.2885961238169932]
本稿では、輸送予測の文脈における量子データ再ロードの最初の応用について述べる。
この技術は、古典的なデータを量子状態に繰り返しエンコードすることで、トラフィックダイナミクスのような複雑なパターンをよりよくキャプチャすることを可能にする。
以上の結果から,従来の手法と競合する精度が得られ,特に量子ビット数の増加や再アップロードブロックの増大にともなって,ハイブリッドモデルによる性能向上が期待できる。
論文 参考訳(メタデータ) (2025-01-22T10:21:00Z) - Quantum Kernel-Based Long Short-term Memory for Climate Time-Series Forecasting [0.24739484546803336]
本稿では,量子カーネル法を従来のLSTMアーキテクチャに統合したQK-LSTM(Quantum Kernel-Based Long short-Memory)ネットワークを提案する。
QK-LSTMは、トレーニング可能なパラメータが少ない複雑な非線形依存と時間ダイナミクスをキャプチャする。
論文 参考訳(メタデータ) (2024-12-12T01:16:52Z) - Quantum-Train Long Short-Term Memory: Application on Flood Prediction Problem [0.8192907805418583]
本研究は、量子機械学習(QML)により訓練された予測長短期記憶(LSTM)モデルに量子トレイン(QT)技術を適用した。
QTテクニックは、QHack 2024のA Matter of Tasteチャレンジで最初に成功したもので、トレーニング可能なパラメータの数を古典的ニューラルネットワーク(NN)のパラメータ数の多対数関数に還元するためにQMLを活用する。
提案手法は,量子埋め込みを必要とせずに従来のデータを直接処理し,学習後の量子コンピューティングリソースとは独立に動作させる。
論文 参考訳(メタデータ) (2024-07-11T15:56:00Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - PreQuant: A Task-agnostic Quantization Approach for Pre-trained Language
Models [52.09865918265002]
ファインチューニングのフレームワークPreQuantに先立って,新しい量子化を提案する。
PreQuantは様々な量子化戦略と互換性があり、インダクションされた量子化誤差を修正するために、アウタリア対応の微調整が組み込まれている。
BERT,RoBERTa,T5を用いたGLUEベンチマークにおけるPreQuantの有効性を示す。
論文 参考訳(メタデータ) (2023-05-30T08:41:33Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Synergy Between Quantum Circuits and Tensor Networks: Short-cutting the
Race to Practical Quantum Advantage [43.3054117987806]
本稿では,量子回路の初期化を最適化するために,古典計算資源を利用するスケーラブルな手法を提案する。
本手法は, PQCのトレーニング性, 性能を, 様々な問題において著しく向上させることを示す。
古典的コンピュータを用いて限られた量子資源を増強する手法を実証することにより、量子コンピューティングにおける量子と量子に着想を得たモデル間の相乗効果を実証する。
論文 参考訳(メタデータ) (2022-08-29T15:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。