論文の概要: Intrinsic preservation of plasticity in continual quantum learning
- arxiv url: http://arxiv.org/abs/2511.17228v1
- Date: Fri, 21 Nov 2025 13:14:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.037211
- Title: Intrinsic preservation of plasticity in continual quantum learning
- Title(参考訳): 連続量子学習における可塑性の本質的保存
- Authors: Yu-Qin Chen, Shi-Xin Zhang,
- Abstract要約: 量子学習モデルは、長期にわたって可塑性を保ちながら、自然に可塑性の喪失を克服していることを示す。
我々は、この利点を複数の学習パラダイムから幅広いタスクに体系的に示す。
我々の結果は、機械学習における量子コンピューティングの有用性が、潜在的なスピードアップを超えて拡張されていることを示唆している。
- 参考スコア(独自算出の注目度): 0.8312877398178786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence in dynamic, real-world environments requires the capacity for continual learning. However, standard deep learning suffers from a fundamental issue: loss of plasticity, in which networks gradually lose their ability to learn from new data. Here we show that quantum learning models naturally overcome this limitation, preserving plasticity over long timescales. We demonstrate this advantage systematically across a broad spectrum of tasks from multiple learning paradigms, including supervised learning and reinforcement learning, and diverse data modalities, from classical high-dimensional images to quantum-native datasets. Although classical models exhibit performance degradation correlated with unbounded weight and gradient growth, quantum neural networks maintain consistent learning capabilities regardless of the data or task. We identify the origin of the advantage as the intrinsic physical constraints of quantum models. Unlike classical networks where unbounded weight growth leads to landscape ruggedness or saturation, the unitary constraints confine the optimization to a compact manifold. Our results suggest that the utility of quantum computing in machine learning extends beyond potential speedups, offering a robust pathway for building adaptive artificial intelligence and lifelong learners.
- Abstract(参考訳): 動的で現実世界の環境における人工知能は、継続的な学習の能力を必要とする。
しかし、標準的なディープラーニングは、可塑性の喪失という根本的な問題に悩まされ、ネットワークは新しいデータから学習する能力を失っていく。
ここでは、量子学習モデルがこの制限を自然に克服し、長期にわたって可塑性を保っていることを示す。
この利点は、教師付き学習や強化学習を含む複数の学習パラダイムから、古典的な高次元画像から量子ネイティブデータセットまで、多様なデータモダリティまで、幅広いタスクにわたって体系的に実証されている。
古典的モデルは、非有界ウェイトと勾配成長と相関する性能劣化を示すが、量子ニューラルネットワークは、データやタスクに関わらず、一貫した学習能力を維持する。
我々は、この利点の起源を量子モデルの本質的な物理的制約として認識する。
アンバウンドウェイト成長がランドスケープの頑丈さや飽和をもたらす古典的ネットワークとは異なり、ユニタリ制約はコンパクト多様体への最適化を限定する。
我々の結果は、機械学習における量子コンピューティングの有用性は、潜在的なスピードアップを超えて、適応型人工知能と生涯学習者を構築するための堅牢な経路を提供することを示唆している。
関連論文リスト
- Superior resilience to poisoning and amenability to unlearning in quantum machine learning [0.6445605125467574]
古典モデルは脆い記憶を示し、一般化に失敗することを示した。
量子モデルは顕著なレジリエンスを示し、これはラベルノイズの増加に対する相転移のような反応によって強調される。
量子機械学習は、本質的なレジリエンスと効率的な適応性という2つの利点を持つことができる。
論文 参考訳(メタデータ) (2025-08-04T13:43:47Z) - Quantum-Inspired Differentiable Integral Neural Networks (QIDINNs): A Feynman-Based Architecture for Continuous Learning Over Streaming Data [0.0]
ストリーミングデータによるリアルタイムの継続的学習は、ディープラーニングとAIシステムにおいて依然として中心的な課題である。
量子インスパイアされた微分可能なニューラル積分ネットワーク(QIDINN)を新たに導入する。
QIDINNは、歴史的データ上の積分として神経更新を定式化するために、積分記号の下でファインマンの微分技術を利用する。
論文 参考訳(メタデータ) (2025-06-13T11:00:31Z) - Conservation-informed Graph Learning for Spatiotemporal Dynamics Prediction [84.26340606752763]
本稿では,保護インフォームドGNN(CiGNN)について紹介する。
このネットワークは、保守的かつ非保守的な情報が、潜時的行進戦略によって多次元空間を通過する対称性による一般的な対称性保存則に従うように設計されている。
結果は,CiGNNが顕著なベースライン精度と一般化性を示し,様々な時間的ダイナミクスの予測のための学習に容易に適用可能であることを示した。
論文 参考訳(メタデータ) (2024-12-30T13:55:59Z) - Quantum-Inspired Weight-Constrained Neural Network: Reducing Variable Numbers by 100x Compared to Standard Neural Networks [5.6805708828651]
我々は、量子に着想を得た洞察に基づいて重みを生成する古典的な重み制約ニューラルネットワークを開発した。
このアプローチは、学習可能性を維持しながら、古典的ニューラルネットワークの変数数を135倍に減らすことができる。
さらに,敵攻撃の影響を受けやすい量子機械学習モデルのロバスト性を高めるためのドロップアウト手法を開発した。
論文 参考訳(メタデータ) (2024-12-26T21:35:12Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - The power of quantum neural networks [3.327474729829121]
しかし、短期的には、量子機械学習の利点はあまり明確ではない。
我々は、情報幾何学のツールを使用して、量子モデルと古典モデルの表現可能性の概念を定義します。
量子ニューラルネットワークは、同等の古典的ニューラルネットワークよりもはるかに優れた次元を達成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T18:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。