論文の概要: From Reachability to Learnability: Geometric Design Principles for Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2603.03071v1
- Date: Tue, 03 Mar 2026 15:17:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.849615
- Title: From Reachability to Learnability: Geometric Design Principles for Quantum Neural Networks
- Title(参考訳): 到達可能性から学習可能性へ:量子ニューラルネットワークの幾何学的設計原理
- Authors: Vishal S. Ngairangbam, Michael Spannowsky,
- Abstract要約: 量子ニューラルネットワーク(QNN)では、深さや状態到達性だけでは、この機能の学習能力は保証されない。
CLSを満足するデータ再ロードモデルは、制御不能なスキームよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical deep networks are effective because depth enables adaptive geometric deformation of data representations. In quantum neural networks (QNNs), however, depth or state reachability alone does not guarantee this feature-learning capability. We study this question in the pure-state setting by viewing encoded data as an embedded manifold in $\mathbb{C}P^{2^n-1}$ and analysing infinitesimal unitary actions through Lie-algebra directions. We introduce Classical-to-Lie-algebra (CLA) maps and the criterion of almost Complete Local Selectivity (aCLS), which combines directional completeness with data-dependent local selectivity. Within this framework, we show that data-independent trainable unitaries are complete but non-selective, i.e. learnable rigid reorientations, whereas pure data encodings are selective but non-tunable, i.e. fixed deformations. Hence, geometric flexibility requires a non-trivial joint dependence on data and trainable weights. We further show that accessing high-dimensional deformations of many-qubit state manifolds requires parametrised entangling directions; fixed entanglers such as CNOT alone do not provide adaptive geometric control. Numerical examples validate that CLS-satisfying data re-uploading models outperform non-tunable schemes while requiring only a quarter of the gate operations. Thus, the resulting picture reframes QNN design from state reachability to controllable geometry of hidden quantum representations.
- Abstract(参考訳): データ表現の適応的幾何学的変形を可能にするため、古典的なディープネットワークが有効である。
しかし、量子ニューラルネットワーク(QNN)では、深さや状態到達性だけでは、この機能の学習能力は保証されない。
この問題は、エンコードされたデータを $\mathbb{C}P^{2^n-1}$ の埋め込み多様体として見て、リー代数方向を通して無限小のユニタリ作用を分析することによって、純粋状態設定で研究する。
本稿では,CLA(Classical-to-Lie-algebra)マップと,データ依存の局所選択性と指向性完全性を組み合わせた,ほぼ完全局所選択性(aCLS)の基準を導入する。
このフレームワークでは、データ非依存のトレーニング可能なユニタリは完全だが非選択的、すなわち学習可能な厳密なリオリエンテーションであるのに対し、純粋なデータエンコーディングは選択的だが修正不可能、すなわち固定変形であることを示す。
したがって、幾何学的柔軟性はデータとトレーニング可能な重量に非自明なジョイント依存を必要とする。
さらに、多ビット状態多様体の高次元変形にアクセスするには、パラメトリッドエンタングル方向が必要であり、CNOT等固定エンタングルは適応的幾何制御を提供しないことを示す。
数値的な例では、CLSを満足するデータ再ロードモデルは、ゲート操作の4分の1しか必要とせず、制御不能なスキームよりも優れている。
このようにして、得られた画像はQNNの設計を状態到達性から隠れた量子表現の制御可能な幾何学に再構成する。
関連論文リスト
- LCQNN: Linear Combination of Quantum Neural Networks [7.010027035873597]
量子ニューラルネットワークの線形結合(LCQNN)フレームワークについて述べる。
制御ユニタリの$k$を採用する、あるいはモデルを特定の群理論部分空間に制限するといった構造的選択が、勾配の崩壊を防ぐことを示す。
群行動シナリオでは、対称性を利用して指数関数的に大きい既約部分空間を除外することにより、モデルはバレンプラトーを回避できることを示す。
論文 参考訳(メタデータ) (2025-07-03T17:43:10Z) - AdS-GNN -- a Conformally Equivariant Graph Neural Network [9.96018310438305]
一般の共形変換の下で同変のニューラルネットワークを構築する。
コンピュータビジョンと統計物理学のタスクのモデルを検証する。
論文 参考訳(メタデータ) (2025-05-19T09:08:52Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Non-Unitary Quantum Machine Learning [0.0]
量子機械学習における通常のユニタリ制約を克服する確率的量子アルゴリズムをいくつか導入する。
また, 変分アンサッツ層間の残差は, それらを含むモデルにおける不規則な台地を防止できることが示唆された。
また、Schur-Weyl双対性による点雲データに対する新たな回転不変符号化を実証する。
論文 参考訳(メタデータ) (2024-05-27T17:42:02Z) - Deep Learning as Ricci Flow [38.27936710747996]
ディープニューラルネットワーク(DNN)は、複雑なデータの分布を近似する強力なツールである。
分類タスク中のDNNによる変換は、ハミルトンのリッチ流下で期待されるものと類似していることを示す。
本研究の成果は, 微分幾何学や離散幾何学から, 深層学習における説明可能性の問題まで, ツールの利用を動機づけるものである。
論文 参考訳(メタデータ) (2024-04-22T15:12:47Z) - Kalman Filter for Online Classification of Non-Stationary Data [101.26838049872651]
オンライン連続学習(OCL)では、学習システムはデータのストリームを受け取り、予測とトレーニングの手順を順次実行する。
本稿では,線形予測量に対するニューラル表現と状態空間モデルを用いた確率ベイズオンライン学習モデルを提案する。
多クラス分類の実験では、モデルの予測能力と非定常性を捉える柔軟性を示す。
論文 参考訳(メタデータ) (2023-06-14T11:41:42Z) - Towards Quantum Graph Neural Networks: An Ego-Graph Learning Approach [47.19265172105025]
グラフ構造化データのための新しいハイブリッド量子古典アルゴリズムを提案し、これをEgo-graph based Quantum Graph Neural Network (egoQGNN)と呼ぶ。
egoQGNNはテンソル積とユニティ行列表現を用いてGNN理論フレームワークを実装し、必要なモデルパラメータの数を大幅に削減する。
このアーキテクチャは、現実世界のデータからヒルベルト空間への新しいマッピングに基づいている。
論文 参考訳(メタデータ) (2022-01-13T16:35:45Z) - Revisiting Transformation Invariant Geometric Deep Learning: An Initial Representation Perspective [38.314914702299056]
我々は幾何学的データのための単純で汎用的なプラグインであるTransform In Neural Networks (TinvNN)を提案する。
具体的には,多次元スケーリングを改良することにより,変換不変性と距離保存初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Geometric and Physical Quantities improve E(3) Equivariant Message
Passing [59.98327062664975]
等変グラフネットワークを一般化する等変グラフニューラルネットワーク(SEGNN)を提案する。
このモデルは、ステアブルで構成され、メッセージと更新機能の両方に幾何学的および物理的情報を組み込むことができる。
計算物理学と化学におけるいくつかの課題において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-06T16:34:26Z) - Deep Networks Provably Classify Data on Curves [12.309532551321334]
本研究では, 完全連結ニューラルネットワークを用いて, 単位球上の2つの不連続な滑らかな曲線から引き出されたデータを分類するモデル問題について検討する。
i) ネットワーク深度が問題の難易度と (ii) ネットワーク幅と標本数に固有の性質に比例すると, ランダムな勾配降下は2つの曲線上のすべての点を高い確率で正しく分類する。
論文 参考訳(メタデータ) (2021-07-29T20:40:04Z) - Continuous-Variable Deep Quantum Neural Networks for Flexible Learning
of Structured Classical Information [0.0]
我々は,連続可変(CV)モデルの特性を利用して,スタック化された単一モードネットワークを構築する。
99.98%以上の忠実度に古典的な情報を学習するためのネットワークの適応性を示す。
論文 参考訳(メタデータ) (2020-06-19T02:01:59Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - Revealing the Structure of Deep Neural Networks via Convex Duality [70.15611146583068]
我々は,正規化深層ニューラルネットワーク(DNN)について検討し,隠蔽層の構造を特徴付ける凸解析フレームワークを導入する。
正規正規化学習問題に対する最適隠蔽層重みの集合が凸集合の極点として明確に見出されることを示す。
ホワイトデータを持つ深部ReLUネットワークに同じ特徴を応用し、同じ重み付けが成り立つことを示す。
論文 参考訳(メタデータ) (2020-02-22T21:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。