論文の概要: Dimension reduction with structure-aware quantum circuits for hybrid machine learning
- arxiv url: http://arxiv.org/abs/2508.00048v1
- Date: Thu, 31 Jul 2025 17:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.605638
- Title: Dimension reduction with structure-aware quantum circuits for hybrid machine learning
- Title(参考訳): ハイブリッド機械学習のための構造対応量子回路による次元減少
- Authors: Ammar Daskin,
- Abstract要約: ベクトルのシュミット分解は特異値分解(SVD)をベクトル形式で記述するものとして理解することができる。
我々は、$k$の値で設計された量子回路が、データセット全体の縮小形式表現を近似できることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Schmidt decomposition of a vector can be understood as writing the singular value decomposition (SVD) in vector form. A vector can be written as a linear combination of tensor product of two dimensional vectors by recursively applying Schmidt decompositions via SVD to all subsystems. Given a vector expressed as a linear combination of tensor products, using only the $k$ principal terms yields a $k$-rank approximation of the vector. Therefore, writing a vector in this reduced form allows to retain most important parts of the vector while removing small noises from it, analogous to SVD-based denoising. In this paper, we show that quantum circuits designed based on a value $k$ (determined from the tensor network decomposition of the mean vector of the training sample) can approximate the reduced-form representations of entire datasets. We then employ this circuit ansatz with a classical neural network head to construct a hybrid machine learning model. Since the output of the quantum circuit for an $2^n$ dimensional vector is an $n$ dimensional probability vector, this provides an exponential compression of the input and potentially can reduce the number of learnable parameters for training large-scale models. We use datasets provided in the Python scikit-learn module for the experiments. The results confirm the quantum circuit is able to compress data successfully to provide effective $k$-rank approximations to the classical processing component.
- Abstract(参考訳): ベクトルのシュミット分解は特異値分解(SVD)をベクトル形式で記述するものとして理解することができる。
ベクトルは2次元ベクトルのテンソル積の線型結合として、すべての部分系に対して SVD を通じてシュミット分解を再帰的に適用することで記述することができる。
テンソル積の線型結合として表現されるベクトルが与えられたとき、$k$主項のみを用いるとベクトルの$k$ランク近似が得られる。
したがって、この還元形式でベクトルを記述することで、ベクトルの最も重要な部分を保ちながら、SVDベースの denoising に類似した小さなノイズを除去することができる。
本稿では, トレーニングサンプルの平均ベクトルのテンソルネットワーク分解から決定された$k$の値に基づいて設計された量子回路が, データセット全体の縮小形式表現を近似できることを示す。
次に、この回路アンサッツを古典的ニューラルネットワークヘッドと組み合わせて、ハイブリッド機械学習モデルを構築する。
2^n$次元ベクトルに対する量子回路の出力は$n$次元の確率ベクトルであるため、これは入力を指数的に圧縮し、大規模モデルの学習可能なパラメータの数を削減できる可能性がある。
実験にはPythonのScikit-Lernモジュールで提供されるデータセットを使用します。
その結果、量子回路はデータの圧縮に成功し、従来の処理部品に有効な$k$-rank近似を提供することを確認した。
関連論文リスト
- Learnable quantum spectral filters for hybrid graph neural networks [0.0]
グラフのラプラシアン作用素の固有空間はQFT回路を用いて近似できることを示す。
Ntimes N$ Laplacian の場合、このアプローチは、$n=log(Nimat)$ qubitsしか必要としない近似深度回路が得られる。
次に、回路の出力に古典的ニューラルネットワーク予測ヘッドを適用し、完全なグラフニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2025-07-08T03:36:40Z) - Tensor Decomposition Networks for Fast Machine Learning Interatomic Potential Computations [63.945006006152035]
テンソル分解ネットワーク(TDN)は、計算処理の劇的な高速化と競合する性能を実現する。
1億5500万のDFT計算スナップショットを含む分子緩和データセットPubChemQCRのTDNを評価した。
論文 参考訳(メタデータ) (2025-07-01T18:46:27Z) - Linearithmic Clean-up for Vector-Symbolic Key-Value Memory with Kroneker Rotation Products [4.502446902578007]
現在のVector-Symbolic Architecturesにおける計算ボトルネックは、クリーンアップのステップである。
効率的なクリーンアップをサポートする新しいコードブック表現を提案する。
結果として生じるクリーンアップ時間の複雑さはリニアリチミック、すなわち$mathcalO(N,textlog,N)$である。
論文 参考訳(メタデータ) (2025-06-18T18:23:28Z) - The Generative Leap: Sharp Sample Complexity for Efficiently Learning Gaussian Multi-Index Models [71.5283441529015]
この研究において、ラベルは(ガウス)$d$-次元入力にのみ依存し、低次元$r = O_d(1)$部分空間への射影を通して得られる。
生成的跳躍指数 $kstar$, [Damian et al.'24] から生成的指数の自然拡張をマルチインデックス設定に導入する。
論文 参考訳(メタデータ) (2025-06-05T18:34:56Z) - Quantum encoder for fixed Hamming-weight subspaces [0.0]
固定ハミング重み$k$の部分空間に$d=binomnk$valuedの実データベクトルまたは複素データベクトルの正確な$n$-qubit計算基底振幅エンコーダを提示する。
本稿では,粒子弦対称性を含む問題に対する変分量子アルゴリズムの性能向上について述べる。
本研究は,量子化学,量子機械学習,制約付き$k$最適化などの分野に応用可能な量子データ圧縮のための汎用的なフレームワークを構成する。
論文 参考訳(メタデータ) (2024-05-30T18:26:41Z) - Dictionary-based Block Encoding of Sparse Matrices with Low Subnormalization and Circuit Depth [2.4487770108795393]
本稿では,新しいデータ構造に基づくスパース行列の効率的なブロック符号化プロトコルを提案する。
同じ値のゼロでない要素は、ブロックエンコーディングプロトコルの辞書で同じ分類に属する。
我々のプロトコルは、ユニタリ(LCU)とスパースアクセス入力モデル(SAIM)の線形結合に接続する。
論文 参考訳(メタデータ) (2024-05-28T09:49:58Z) - Factorizers for Distributed Sparse Block Codes [45.29870215671697]
分散ブロック符号(SBC)を高速かつ高精度に分解する手法を提案する。
我々の反復分解器は、しきい値に基づく非線形活性化、条件付きランダムサンプリング、および $ell_infty$-based similarity metricを導入している。
CIFAR-100, ImageNet-1K, RAVENデータセット上での4つの深層CNNアーキテクチャの実現可能性を示す。
論文 参考訳(メタデータ) (2023-03-24T12:31:48Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。