論文の概要: The role of data embedding in equivariant quantum convolutional neural
networks
- arxiv url: http://arxiv.org/abs/2312.13250v1
- Date: Wed, 20 Dec 2023 18:25:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 14:28:04.539565
- Title: The role of data embedding in equivariant quantum convolutional neural
networks
- Title(参考訳): 同変量子畳み込みニューラルネットワークにおけるデータ埋め込みの役割
- Authors: Sreetama Das, Stefano Martina, Filippo Caruso
- Abstract要約: 等変量子ニューラルネットワーク(EQNN)の性能に及ぼす古典量子埋め込みの影響について検討する。
等価な量子畳み込みニューラルネットワーク(QCNN)から得られた3種類の振幅埋め込みと、EQCNNの分類精度を数値的に比較する。
以上の結果から,EQCNNの分類精度は,少数のトレーニングにおいて同等でないQCNNよりも高く,大規模なイテレーションでは使用済みの埋め込みに大きく依存することがわかった。
- 参考スコア(独自算出の注目度): 2.255961793913651
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geometric deep learning refers to the scenario in which the symmetries of a
dataset are used to constrain the parameter space of a neural network and thus,
improve their trainability and generalization. Recently this idea has been
incorporated into the field of quantum machine learning, which has given rise
to equivariant quantum neural networks (EQNNs). In this work, we investigate
the role of classical-to-quantum embedding on the performance of equivariant
quantum convolutional neural networks (EQCNNs) for the classification of
images. We discuss the connection between the data embedding method and the
resulting representation of a symmetry group and analyze how changing
representation affects the expressibility of an EQCNN. We numerically compare
the classification accuracy of EQCNNs with three different basis-permuted
amplitude embeddings to the one obtained from a non-equivariant quantum
convolutional neural network (QCNN). Our results show that all the EQCNNs
achieve higher classification accuracy than the non-equivariant QCNN for small
numbers of training iterations, while for large iterations this improvement
crucially depends on the used embedding. It is expected that the results of
this work can be useful to the community for a better understanding of the
importance of data embedding choice in the context of geometric quantum machine
learning.
- Abstract(参考訳): 幾何学的ディープラーニングは、データセットの対称性を使用してニューラルネットワークのパラメータ空間を制約し、トレーニング性と一般化を改善するシナリオを指す。
近年、このアイデアは量子機械学習の分野に取り入れられ、同変量子ニューラルネットワーク(EQNN)が誕生した。
本研究では,画像の分類における古典-量子埋め込みが等変量子畳み込みニューラルネットワーク(EQCNN)の性能に与える影響について検討する。
本稿では,データ埋め込み手法と対称性群の表現の関係を考察し,表現の変化がEQCNNの表現性に与える影響を分析する。
量子畳み込みニューラルネットワーク(QCNN)から得られた3種類の振幅埋め込みと、EQCNNの分類精度を数値的に比較する。
以上の結果から,EQCNNの分類精度は,少数のトレーニングイテレーションにおいて同等でないQCNNよりも高く,大規模なイテレーションでは使用済み埋め込みに大きく依存することがわかった。
この研究の成果は、幾何学的量子機械学習の文脈におけるデータ埋め込み選択の重要性をより理解するために、コミュニティにとって有用であることが期待される。
関連論文リスト
- Resource-efficient equivariant quantum convolutional neural networks [0.0]
本研究では、同変分割並列化QCNN(sp-QCNN)と呼ばれる同変量子畳み込みニューラルネットワーク(QCNN)の資源効率モデルを提案する。
グループ理論的アプローチを用いて、以前のsp-QCNNで対処された翻訳対称性を超えて、一般対称性をモデルにエンコードする。
この結果は,実用的な量子機械学習アルゴリズムの進歩に寄与する。
論文 参考訳(メタデータ) (2024-10-02T05:51:33Z) - Parallel Proportional Fusion of Spiking Quantum Neural Network for Optimizing Image Classification [10.069224006497162]
量子・スパイキングニューラルネットワーク(PPF-QSNN)の並列比例融合(Parallel Proportional Fusion of Quantum and Spiking Neural Networks)と呼ばれる新しいアーキテクチャを導入する。
提案したPPF-QSNNは、既存のスパイクニューラルネットワークと、精度、損失、ロバストネスといったメトリクスにわたるシリアル量子ニューラルネットワークの両方より優れている。
本研究は、人工知能計算における量子優位性の発展と応用の基盤となるものである。
論文 参考訳(メタデータ) (2024-04-01T10:35:35Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Theory for Equivariant Quantum Neural Networks [0.0]
本質的に任意の対称性群に対して等変量子ニューラルネットワーク(EQNN)を設計するための理論的枠組みを提案する。
私たちのフレームワークは、量子機械学習のほぼすべての領域に簡単に適用できます。
論文 参考訳(メタデータ) (2022-10-16T15:42:21Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。