論文の概要: Quantum-Inspired Differentiable Integral Neural Networks (QIDINNs): A Feynman-Based Architecture for Continuous Learning Over Streaming Data
- arxiv url: http://arxiv.org/abs/2506.12111v1
- Date: Fri, 13 Jun 2025 11:00:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.201909
- Title: Quantum-Inspired Differentiable Integral Neural Networks (QIDINNs): A Feynman-Based Architecture for Continuous Learning Over Streaming Data
- Title(参考訳): 量子インスパイアされた微分可能積分ニューラルネットワーク(QIDINNs):ストリーミングデータを用いた連続学習のためのファインマン型アーキテクチャ
- Authors: Oscar Boullosa Dapena,
- Abstract要約: ストリーミングデータによるリアルタイムの継続的学習は、ディープラーニングとAIシステムにおいて依然として中心的な課題である。
量子インスパイアされた微分可能なニューラル積分ネットワーク(QIDINN)を新たに導入する。
QIDINNは、歴史的データ上の積分として神経更新を定式化するために、積分記号の下でファインマンの微分技術を利用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time continuous learning over streaming data remains a central challenge in deep learning and AI systems. Traditional gradient-based models such as backpropagation through time (BPTT) face computational and stability limitations when dealing with temporally unbounded data. In this paper, we introduce a novel architecture, Quantum-Inspired Differentiable Integral Neural Networks (QIDINNs), which leverages the Feynman technique of differentiation under the integral sign to formulate neural updates as integrals over historical data. This reformulation allows for smoother, more stable learning dynamics that are both physically interpretable and computationally tractable. Inspired by Feynman's path integral formalism and compatible with quantum gradient estimation frameworks, QIDINNs open a path toward hybrid classical-quantum neural computation. We demonstrate our model's effectiveness on synthetic and real-world streaming tasks, and we propose directions for quantum extensions and scalable implementations.
- Abstract(参考訳): ストリーミングデータによるリアルタイムの継続的学習は、ディープラーニングとAIシステムにおいて依然として中心的な課題である。
時間によるバックプロパゲーション(BPTT)のような従来の勾配に基づくモデルは、時間的非有界データを扱う際に計算と安定性の制限に直面している。
本稿では、積分符号の下での微分のファインマン法を利用して、ニューラルネットワークを歴史的データ上の積分として定式化する新しいアーキテクチャ、量子インスパイア可能な微分積分ニューラルネットワーク(QIDINN)を紹介する。
この再構成により、物理的に解釈可能で、計算的に抽出可能な、よりスムーズでより安定した学習力学が実現される。
ファインマンの経路積分形式に触発され、量子勾配推定フレームワークと互換性を持つQIDINNは、ハイブリッド古典量子ニューラル計算への道を開く。
合成および実世界のストリーミングタスクにおけるモデルの有効性を実証し、量子拡張とスケーラブルな実装の方向性を提案する。
関連論文リスト
- Exploring quantum localization with machine learning [39.58317527488534]
本稿では、その局所化の観点から、波動関数を分類するための効率的なニューラルネットワーク(NN)アーキテクチャを提案する。
提案手法は, 量子位相空間のパラメトリゼーションにより, 改良畳み込みモデルのパターン認識機能と, 独自の「量子」NNへと導かれる。
論文 参考訳(メタデータ) (2024-06-01T08:50:26Z) - From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - Data-Driven Characterization of Latent Dynamics on Quantum Testbeds [0.23408308015481663]
我々は、パラメータ化された元項でリンドブラッドマスター方程式によって記述された量子系の力学方程式を拡大する。
本稿では,線形演算子に基づいてパラメータ化された発散潜在力学からユニタリを学習し,区別する拡張を保存する構造について考察する。
我々は、我々の解釈、構造保存、非線形モデルがリンドブラッドマスター方程式の予測精度を向上させることを実証した。
論文 参考訳(メタデータ) (2024-01-18T09:28:44Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - Towards Quantum Graph Neural Networks: An Ego-Graph Learning Approach [47.19265172105025]
グラフ構造化データのための新しいハイブリッド量子古典アルゴリズムを提案し、これをEgo-graph based Quantum Graph Neural Network (egoQGNN)と呼ぶ。
egoQGNNはテンソル積とユニティ行列表現を用いてGNN理論フレームワークを実装し、必要なモデルパラメータの数を大幅に削減する。
このアーキテクチャは、現実世界のデータからヒルベルト空間への新しいマッピングに基づいている。
論文 参考訳(メタデータ) (2022-01-13T16:35:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。