論文の概要: ATP: Adaptive Threshold Pruning for Efficient Data Encoding in Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2503.21815v1
- Date: Wed, 26 Mar 2025 01:14:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:32:47.731875
- Title: ATP: Adaptive Threshold Pruning for Efficient Data Encoding in Quantum Neural Networks
- Title(参考訳): ATP:量子ニューラルネットワークにおける効率的なデータ符号化のためのアダプティブ閾値プルーニング
- Authors: Mohamed Afane, Gabrielle Ebbrecht, Ying Wang, Juntao Chen, Junaid Farooq,
- Abstract要約: 我々は、量子ニューラルネットワーク(QNN)における効率的な計算のために、絡み合いを減らし、データの複雑さを最適化する符号化手法であるAdaptive Threshold Pruning (ATP)を導入する。
ATPは適応しきい値に基づいてデータの非定常的特徴を動的に引き起こし、高い性能を維持しながら量子回路の要求を効果的に低減する。
計算効率とモデルレジリエンスのバランスをとるATPの能力を強調し,少ないリソースで大幅な性能向上を実現した。
- 参考スコア(独自算出の注目度): 6.80372007036868
- License:
- Abstract: Quantum Neural Networks (QNNs) offer promising capabilities for complex data tasks, but are often constrained by limited qubit resources and high entanglement, which can hinder scalability and efficiency. In this paper, we introduce Adaptive Threshold Pruning (ATP), an encoding method that reduces entanglement and optimizes data complexity for efficient computations in QNNs. ATP dynamically prunes non-essential features in the data based on adaptive thresholds, effectively reducing quantum circuit requirements while preserving high performance. Extensive experiments across multiple datasets demonstrate that ATP reduces entanglement entropy and improves adversarial robustness when combined with adversarial training methods like FGSM. Our results highlight ATPs ability to balance computational efficiency and model resilience, achieving significant performance improvements with fewer resources, which will help make QNNs more feasible in practical, resource-constrained settings.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、複雑なデータタスクに有望な機能を提供するが、しばしば限られたキュービットリソースと高い絡み合いによって制約され、スケーラビリティと効率を損なう。
本稿では, エンタングルメントを低減し, QNN の効率的な計算のためにデータ複雑性を最適化する符号化手法である Adaptive Threshold Pruning (ATP) を提案する。
ATPは適応しきい値に基づいてデータの非定常的特徴を動的に引き起こし、高い性能を維持しながら量子回路の要求を効果的に低減する。
複数のデータセットにわたる大規模な実験により、ATPは絡み合いのエントロピーを減少させ、FGSMのような敵の訓練方法と組み合わせることで、敵の堅牢性を向上させることが示されている。
本研究の結果は, ATPが計算効率とモデルレジリエンスのバランスをとる能力を強調し, 少ないリソースで大幅な性能向上を実現し, 現実的な資源制約のある環境でQNNをより実現可能とした。
関連論文リスト
- Regression and Classification with Single-Qubit Quantum Neural Networks [0.0]
我々は、回帰処理と分類処理の両方にリソース効率が高くスケーラブルなSQQNN(Single-Qubit Quantum Neural Network)を使用する。
分類にはTaylor級数にインスパイアされた新しいトレーニング手法を導入する。
SQQNNは、MNISTデータセットを含む回帰および分類タスクにおいて、事実上エラーのない、強力なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-12-12T17:35:36Z) - SpiDR: A Reconfigurable Digital Compute-in-Memory Spiking Neural Network Accelerator for Event-based Perception [8.968583287058959]
スパイキングニューラルネットワーク(SNN)は、ダイナミックビジョンセンサー(DVS)によって生成された非同期時間データを効率的に処理する方法を提供する。
既存のSNNアクセラレータは、多様なニューロンモデル、ビット精度、ネットワークサイズへの適応性の制限に悩まされている。
本稿では,CIM (Citical Compute-in-Memory) SNNアクセラレーターを,拡張性および再構成性を備えたチップ名として提案する。
論文 参考訳(メタデータ) (2024-11-05T06:59:02Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Full-Stack Optimization for CAM-Only DNN Inference [2.0837295518447934]
本稿では,3次重み付けニューラルネットワークと連想プロセッサのアルゴリズム最適化の組み合わせについて検討する。
演算強度を低減し,APの畳み込みを最適化する新しいコンパイルフローを提案する。
本研究では,イメージネット上でのResNet-18推論のエネルギー効率を,クロスバーメモリアクセラレータと比較して7.5倍向上させる。
論文 参考訳(メタデータ) (2024-01-23T10:27:38Z) - Generative AI-enabled Quantum Computing Networks and Intelligent
Resource Allocation [80.78352800340032]
量子コンピューティングネットワークは、大規模な生成AI計算タスクと高度な量子アルゴリズムを実行する。
量子コンピューティングネットワークにおける効率的なリソース割り当ては、量子ビットの可変性とネットワークの複雑さのために重要な課題である。
我々は、生成学習から量子機械学習まで、最先端強化学習(RL)アルゴリズムを導入し、最適な量子リソース割り当てを行う。
論文 参考訳(メタデータ) (2024-01-13T17:16:38Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Entanglement Rate Optimization in Heterogeneous Quantum Communication
Networks [79.8886946157912]
量子通信ネットワークは、将来6G以降の通信ネットワークにおいて重要な構成要素となる可能性のある、有望な技術として登場しつつある。
近年の進歩は、実際の量子ハードウェアによる小規模および大規模量子通信ネットワークの展開に繋がった。
量子ネットワークにおいて、絡み合いは異なるノード間でのデータ転送を可能にする鍵となるリソースである。
論文 参考訳(メタデータ) (2021-05-30T11:34:23Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - FSpiNN: An Optimization Framework for Memory- and Energy-Efficient
Spiking Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパイクタイピング依存の可塑性(STDP)ルールのために教師なし学習機能を提供する。
しかし、最先端のSNNは高い精度を達成するために大きなメモリフットプリントを必要とする。
トレーニングおよび推論処理のためのメモリ効率とエネルギー効率のよいSNNを得るための最適化フレームワークFSpiNNを提案する。
論文 参考訳(メタデータ) (2020-07-17T09:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。