論文の概要: JustQ: Automated Deployment of Fair and Accurate Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2403.11048v1
- Date: Sun, 17 Mar 2024 00:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 20:27:00.461128
- Title: JustQ: Automated Deployment of Fair and Accurate Quantum Neural Networks
- Title(参考訳): JustQ: 公正で正確な量子ニューラルネットワークのデプロイを自動化する
- Authors: Ruhan Wang, Fahiz Baba-Yara, Fan Chen,
- Abstract要約: この研究はデザインスペースの探索を行い、QNNの不公平を公表した。
NISQ コンピュータ上に公平かつ正確な QNN をデプロイするためのフレームワーク JustQ を提案する。
- 参考スコア(独自算出の注目度): 4.005811732227121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of Quantum Neural Networks (QNNs) in decision-making systems, their fairness remains unexplored, as the focus primarily lies on accuracy. This work conducts a design space exploration, unveiling QNN unfairness, and highlighting the significant influence of QNN deployment and quantum noise on accuracy and fairness. To effectively navigate the vast QNN deployment design space, we propose JustQ, a framework for deploying fair and accurate QNNs on NISQ computers. It includes a complete NISQ error model, reinforcement learning-based deployment, and a flexible optimization objective incorporating both fairness and accuracy. Experimental results show JustQ outperforms previous methods, achieving superior accuracy and fairness. This work pioneers fair QNN design on NISQ computers, paving the way for future investigations.
- Abstract(参考訳): 意思決定システムにおける量子ニューラルネットワーク(QNN)の成功にもかかわらず、その公正性は探索されていない。
この研究は、設計空間の探索を行い、QNNの不公平を明らかにし、QNNの展開と量子ノイズが正確性と公正性に与える影響を強調した。
NISQコンピュータ上に公平かつ正確なQNNを配置するためのフレームワークであるJustQを提案する。
完全なNISQエラーモデル、強化学習ベースのデプロイメント、公平性と正確性の両方を取り入れた柔軟な最適化目標を含む。
実験の結果,JustQは従来の手法よりも優れ,精度と公平性が向上した。
この研究は、NISQコンピュータ上での公平なQNN設計の先駆者であり、将来の調査への道を開いた。
関連論文リスト
- A Coverage-Guided Testing Framework for Quantum Neural Networks [1.7101498519540597]
量子ニューラルネットワーク(QNN)は、量子コンピューティングとニューラルネットワークを組み合わせて機械学習モデルを改善する。
本稿では,QNNの状態探索を体系的に評価するために,QNNを対象としたテストカバレッジ基準のセットであるQCovを提案する。
論文 参考訳(メタデータ) (2024-11-03T08:07:27Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - A natural NISQ model of quantum self-attention mechanism [11.613292674155685]
SAM(Self-attention mechanism)は、様々な応用において顕著な成功を収めている。
量子ニューラルネットワーク(QNN)は,新しい学習モデルとして開発されている。
我々はQNNにSAMを実装する全く自然な方法を提案し、量子自己認識機構(QSAM)を導いた。
論文 参考訳(メタデータ) (2023-05-25T03:09:17Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Scalable Quantum Convolutional Neural Networks [12.261689483681145]
我々は、スケーラブル量子畳み込みニューラルネットワーク(sQCNN)と呼ばれる量子ニューラルネットワーク(QCNN)の新バージョンを提案する。
さらに、QCの忠実度を用いて、sQCNNの性能を最大化する逆忠実度トレーニング(RF-Train)と呼ばれるsQCNNトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T02:07:00Z) - Quantum circuit architecture search on a superconducting processor [56.04169357427682]
変分量子アルゴリズム(VQA)は、ファイナンス、機械学習、化学といった様々な分野において、証明可能な計算上の優位性を得るための強力な証拠を示している。
しかし、現代のVQAで利用されるアンザッツは、表現性と訓練性の間のトレードオフのバランスをとることができない。
8量子ビット超伝導量子プロセッサ上でVQAを強化するために,効率的な自動アンサッツ設計技術を適用した最初の実証実験を実証する。
論文 参考訳(メタデータ) (2022-01-04T01:53:42Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Training Quantum Neural Networks on NISQ Devices [0.0]
我々は,IBMのNISQデバイス上での2つの量子ニューラルネットワーク(QNN)アーキテクチャの耐雑音性を評価する。
DQNNは未知のユニタリをQAOAよりも確実に学習し,ゲートノイズの影響を受けにくいことがわかった。
論文 参考訳(メタデータ) (2021-04-13T10:34:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。