論文の概要: Architecture representations for quantum convolutional neural networks
- arxiv url: http://arxiv.org/abs/2210.15073v1
- Date: Wed, 26 Oct 2022 22:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 15:06:58.562469
- Title: Architecture representations for quantum convolutional neural networks
- Title(参考訳): 量子畳み込みニューラルネットワークのためのアーキテクチャ表現
- Authors: Matt Lourens, Ilya Sinayskiy, Daniel K. Park, Carsten Blank and
Francesco Petruccione
- Abstract要約: 量子畳み込みニューラルネットワーク(Quantum Convolutional Neural Network, QCNN)は、畳み込みニューラルネットワーク(CNN)のアーキテクチャにインスパイアされた量子回路モデルである。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)の手法を利用して,検索空間の設計と自動モデル生成を容易にするQCNNのアーキテクチャ表現を作成する。
逆二分木に類似したパラメトリック量子回路の一般的なファミリーに属するQCNNを生成することにより、これを示す。
- 参考スコア(独自算出の注目度): 0.6562256987706128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Quantum Convolutional Neural Network (QCNN) is a quantum circuit model
inspired by the architecture of Convolutional Neural Networks (CNNs). The
success of CNNs is largely due to its ability to learn high level features from
raw data rather than requiring manual feature design. Neural Architecture
Search (NAS) continues this trend by learning network architecture, alleviating
the need for its manual construction and have been able to generate state of
the art models automatically. Search space design is a crucial step in NAS and
there is currently no formal framework through which it can be achieved for
QCNNs. In this work we provide such a framework by utilizing techniques from
NAS to create an architectural representation for QCNNs that facilitate search
space design and automatic model generation. This is done by specifying
primitive operations, such as convolutions and pooling, in such a way that they
can be dynamically stacked on top of each other to form different
architectures. This way, QCNN search spaces can be created by controlling the
sequence and hyperparameters of stacked primitives, allowing the capture of
different design motifs. We show this by generating QCNNs that belong to a
popular family of parametric quantum circuits, those resembling reverse binary
trees. We then benchmark this family of models on a music genre classification
dataset, GTZAN. Showing that alternating architecture impact model performance
more than other modelling components such as choice of unitary ansatz and data
encoding, resulting in a way to improve model performance without increasing
its complexity. Finally we provide an open source python package that enable
dynamic QCNN creation by system or hand, based off the work presented in this
paper, facilitating search space design.
- Abstract(参考訳): 量子畳み込みニューラルネットワーク(QCNN)は、畳み込みニューラルネットワーク(CNN)のアーキテクチャにインスパイアされた量子回路モデルである。
CNNの成功の大部分は、手作業による機能設計よりも、生データから高レベルの機能を学ぶ能力に起因している。
ニューラルネットワークサーチ(NAS)は、ネットワークアーキテクチャを学習し、手作業による構築の必要性を軽減し、アートモデルの状態を自動生成することで、この傾向を継続する。
検索空間設計はNASにとって重要なステップであり、QCNNで実現可能な正式なフレームワークはない。
本研究では,NASの手法を利用して,検索空間設計と自動モデル生成を容易にするQCNNのアーキテクチャ表現を作成する。
これは、畳み込みやプーリングといったプリミティブ操作を、互いに動的に積み重ねて異なるアーキテクチャを形成するように指定することで行われる。
このように、qcnn探索空間は、積み重ねられたプリミティブのシーケンスとハイパーパラメータを制御し、異なるデザインモチーフをキャプチャすることで作成することができる。
逆二分木に類似したパラメトリック量子回路の一般的なファミリーに属するQCNNを生成することでこれを示す。
次に、このモデルのモデルを音楽ジャンル分類データセットGTZANでベンチマークする。
アーキテクチャの交互化は、ユニタリアンサッツの選択やデータエンコーディングなど、他のモデリングコンポーネントよりもモデルパフォーマンスに影響を与え、複雑さを増すことなくモデルパフォーマンスを改善する方法をもたらす。
最後に,本論文で提示した作業に基づいて,システムまたは手動による動的QCNN作成を可能にするオープンソースのpythonパッケージを提供する。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - A Quantum Convolutional Neural Network Approach for Object Detection and
Classification [0.0]
QCNNの時間と精度は、異なる条件下での古典的なCNNやANNモデルと比較される。
この分析により、QCNNは、特定のアプリケーションにおける精度と効率の点で、古典的なCNNとANNのモデルより優れている可能性が示されている。
論文 参考訳(メタデータ) (2023-07-17T02:38:04Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Automating Neural Architecture Design without Search [3.651848964235307]
アルゴリズム実行中に生成された各ニューラルネットワークを逐次評価する必要のない新しい視点から、自動アーキテクチャ設計について検討する。
リンク予測にグラフニューラルネットワークを用いて提案手法を実装し,NAS-Bench-101から知識を得た。
さらに、NAS-Bench-101から学んだ知識を利用して、DARTS検索空間におけるアーキテクチャ設計を自動化し、CIFAR10では97.82%、ImageNetでは76.51%の精度で2時間10-4ドルのGPU日しか消費しなかった。
論文 参考訳(メタデータ) (2022-04-21T14:41:05Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - NASCaps: A Framework for Neural Architecture Search to Optimize the
Accuracy and Hardware Efficiency of Convolutional Capsule Networks [10.946374356026679]
我々は,異なるタイプのディープニューラルネットワーク(DNN)のハードウェア対応NASの自動フレームワークであるNASCapsを提案する。
多目的遺伝的アルゴリズム(NSGA-IIアルゴリズム)の展開の有効性について検討する。
我々のフレームワークは、NASフローの特別なカプセル層と動的ルーティングをモデル化し、サポートする最初のフレームワークです。
論文 参考訳(メタデータ) (2020-08-19T14:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。