論文の概要: DyLoC: A Dual-Layer Architecture for Secure and Trainable Quantum Machine Learning Under Polynomial-DLA constraint
- arxiv url: http://arxiv.org/abs/2512.00699v1
- Date: Sun, 30 Nov 2025 02:29:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.368444
- Title: DyLoC: A Dual-Layer Architecture for Secure and Trainable Quantum Machine Learning Under Polynomial-DLA constraint
- Title(参考訳): DyLoC: 多項式-DLA制約下でのセキュアでトレーニング可能な量子機械学習のための2層アーキテクチャ
- Authors: Chenyi Zhang, Tao Shang, Chao Guo, Ruohan He,
- Abstract要約: 変分量子回路は、プライバシーとトレーニング容易性の間に重要なトレードオフに直面している。
この問題を解決するため、DyLoCを提案する。
これらの結果は、DyLoCが安全でトレーニング可能な機械学習の経路を効果的に確立することを確認する。
- 参考スコア(独自算出の注目度): 4.285820454951805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational quantum circuits face a critical trade-off between privacy and trainability. High expressivity required for robust privacy induces exponentially large dynamical Lie algebras. This structure inevitably leads to barren plateaus. Conversely, trainable models restricted to polynomial-sized algebras remain transparent to algebraic attacks. To resolve this impasse, DyLoC is proposed. This dual-layer architecture employs an orthogonal decoupling strategy. Trainability is anchored to a polynomial-DLA ansatz while privacy is externalized to the input and output interfaces. Specifically, Truncated Chebyshev Graph Encoding (TCGE) is employed to thwart snapshot inversion. Dynamic Local Scrambling (DLS) is utilized to obfuscate gradients. Experiments demonstrate that DyLoC maintains baseline-level convergence with a final loss of 0.186. It outperforms the baseline by increasing the gradient reconstruction error by 13 orders of magnitude. Furthermore, snapshot inversion attacks are blocked when the reconstruction mean squared error exceeds 2.0. These results confirm that DyLoC effectively establishes a verifiable pathway for secure and trainable quantum machine learning.
- Abstract(参考訳): 変分量子回路は、プライバシーとトレーニング容易性の間に重要なトレードオフに直面している。
堅牢なプライバシーに必要な高表現性は指数関数的に大きな動的リー代数を誘導する。
この構造は必然的に不毛の台地につながる。
逆に、多項式サイズの代数に制限された訓練可能なモデルは、代数的攻撃に対して透過的である。
この問題を解決するため、DyLoCを提案する。
この二重層アーキテクチャは直交分離戦略を採用している。
トレーニング性は多項式DLAアンサッツに固定され、プライバシは入力および出力インターフェースに外部化される。
具体的には、Trncated Chebyshev Graph Encoding (TCGE) を使用してスナップショットの反転を防ぐ。
動的局所スクランブル(DLS)は勾配を難読化するために用いられる。
実験により、DyLoCは0.186の損失でベースラインレベルの収束を維持していることが示された。
勾配再構成誤差を13桁増加させることでベースラインを上回ります。
さらに、再構成平均2乗誤差が2.0を超えるとスナップショット反転攻撃がブロックされる。
これらの結果は、DyLoCがセキュアで訓練可能な量子機械学習のための検証可能な経路を効果的に確立することを確認する。
関連論文リスト
- KARIPAP: Quantum-Inspired Tensor Network Compression of Large Language Models Using Infinite Projected Entangled Pair States and Tensor Renormalization Group [0.0]
ChatGPTやLLaMAのような大規模言語モデル(LLM)は、生成AIの急速な進歩をもたらすが、その巨大なパラメータスケールは、計算と環境に深刻な負担をもたらす。
Infinite Projected Entangled Pair States (iPEPS) と Renormalization Group (TRG) による量子インスパイアされたテンソルネットワーク圧縮であるKARIPAPを提案する。
LLaMA-2 7Bの実験では、メモリが93%、パラメータが70%減少し、トレーニングが50%速く、推論が25%速く、精度が2-3%低下した。
論文 参考訳(メタデータ) (2025-10-22T15:43:09Z) - PT$^2$-LLM: Post-Training Ternarization for Large Language Models [52.4629647715623]
大きな言語モデル(LLM)は、様々なタスクにまたがる印象的な機能を示しているが、その大きなメモリと計算能力は、デプロイメントを妨げている。
PT$2$-LLMを提案する。
その中核は2段精製パイプラインを備えた非対称3次量子化器である。
論文 参考訳(メタデータ) (2025-09-27T03:01:48Z) - The Choice of Divergence: A Neglected Key to Mitigating Diversity Collapse in Reinforcement Learning with Verifiable Reward [57.56453588632619]
Reinforcement Learning with Verifiable Reward (RLVR) を用いた細調整大型言語モデル(LLM)における中心的パラドックスは、多目的性能の頻繁な劣化である。
これはしばしば破滅的な忘れが伴い、モデルが以前獲得したスキルを失う。
我々は,標準RLVR目標には知識保持のための重要なメカニズムが欠如していると主張している。
論文 参考訳(メタデータ) (2025-09-09T06:34:32Z) - Conditionally adaptive augmented Lagrangian method for physics-informed learning of forward and inverse problems using artificial neural networks [0.24578723416255746]
本稿では,物理・等式制約付きニューラルネットワーク(PECANN)フレームワークについて述べる。
拡張ラグランジアン法(ALM)を一般化し、複数の独立ペナルティパラメータをサポートする。
我々は、制約項に対する期待として、ポイントワイズ制約強制とラグランジュ乗算を再構成する。
論文 参考訳(メタデータ) (2025-08-21T16:22:40Z) - Special-Unitary Parameterization for Trainable Variational Quantum Circuits [7.2687813325879045]
SUN-VQC は、基本層が対称性制限されたリー部分群の単指数である変分回路アーキテクチャである。
本研究では, SUN-VQC が2--3$times$で収束し, 深度整合パウリ回路よりも高い最終忠実度に達することを示す。
論文 参考訳(メタデータ) (2025-07-07T23:21:02Z) - A Training Framework for Optimal and Stable Training of Polynomial Neural Networks [0.462761393623313]
PNN(Polynomial Neural Networks)は、HEによるプライバシ保護暗号化などのアプリケーションにおいて重要な機能である。
低次はモデル表現性を制限することができるが、高次は数値不安定性や勾配爆発に悩まされることが多い。
本稿は,1)所定の安定範囲外において入力を指数関数的にペナルティ化する境界損失,2)本質的な正規化統計を保ちながら,勾配を効果的にテーパーする選択的な勾配クリッピング,の2つの革新を特徴とする,堅牢で汎用的なトレーニングフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-05-16T18:00:02Z) - Robust and Transferable Backdoor Attacks Against Deep Image Compression With Selective Frequency Prior [118.92747171905727]
本稿では,学習画像の圧縮モデルに複数のトリガを付加したバックドアアタックを起動するための新しい周波数ベースのトリガインジェクションモデルを提案する。
1) 圧縮品質をビットレートと再現精度で劣化させる,2) 顔認識やセマンティックセグメンテーションといったタスク駆動型対策を目標とする,様々なシナリオに適した攻撃目標を設計する。
実験の結果, トリガーインジェクションモデルと, エンコーダパラメータの微調整を組み合わせることで, 複数のバックドアとトリガーを1つの圧縮モデルに注入することができた。
論文 参考訳(メタデータ) (2024-12-02T15:58:40Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Fighting COVID-19 in the Dark: Methodology for Improved Inference Using
Homomorphically Encrypted DNN [3.1959970303072396]
ホモモルフィック暗号化(HE)は、プライバシー問題に対処しながら分析を可能にする方法として使われている。
HEの使用には、サイズ制限やいくつかの操作タイプのサポートの欠如など、いくつかの課題がある。
本稿では,ReLUを2次活性化に置き換える構造的手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T10:04:15Z) - GradInit: Learning to Initialize Neural Networks for Stable and
Efficient Training [59.160154997555956]
ニューラルネットワークを初期化するための自動化およびアーキテクチャ手法であるgradinitを提案する。
各ネットワーク層の分散は、SGDまたはAdamの単一ステップが最小の損失値をもたらすように調整される。
また、学習率のウォームアップを伴わずに、オリジナルのPost-LN Transformerを機械翻訳用にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-02-16T11:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。