論文の概要: Exact and Asymptotically Complete Robust Verifications of Neural Networks via Quantum Optimization
- arxiv url: http://arxiv.org/abs/2603.00408v1
- Date: Sat, 28 Feb 2026 02:05:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.175434
- Title: Exact and Asymptotically Complete Robust Verifications of Neural Networks via Quantum Optimization
- Title(参考訳): 量子最適化によるニューラルネットワークのエクササイズと漸近的完全ロバスト検証
- Authors: Wenxin Li, Wenchao Liu, Chuan Wang, Qi Gao, Yin Ma, Hai Wei, Kai Wen,
- Abstract要約: 本稿では、ディープニューラルネットワークの堅牢な検証のための2つの量子最適化モデルを提案する。
ベンチマークの実験では高い認証精度を示し、量子最適化がロバスト性を保証するための原則的プリミティブとして機能できることが示されている。
- 参考スコア(独自算出の注目度): 9.728049285140736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) enable high performance across domains but remain vulnerable to adversarial perturbations, limiting their use in safety-critical settings. Here, we introduce two quantum-optimization-based models for robust verification that reduce the combinatorial burden of certification under bounded input perturbations. For piecewise-linear activations (e.g., ReLU and hardtanh), our first model yields an exact formulation that is sound and complete, enabling precise identification of adversarial examples. For general activations (including sigmoid and tanh), our second model constructs scalable over-approximations via piecewise-constant bounds and is asymptotically complete, with approximation error vanishing as the segmentation is refined. We further integrate Quantum Benders Decomposition with interval arithmetic to accelerate solving, and propose certificate-transfer bounds that relate robustness guarantees of pruned networks to those of the original model. Finally, a layerwise partitioning strategy supports a quantum--classical hybrid workflow by coupling subproblems across depth. Experiments on robustness benchmarks show high certification accuracy, indicating that quantum optimization can serve as a principled primitive for robustness guarantees in neural networks with complex activations.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ドメイン間のハイパフォーマンスを実現するが、敵の摂動に弱いままであり、安全クリティカルな設定での使用を制限する。
本稿では,有界入力摂動下での認証の組合せ負担を軽減するために,ロバスト検証のための2つの量子最適化モデルを提案する。
片方向の線形アクティベーション(例えば ReLU や hardtanh など)に対して、最初のモデルでは、正当かつ完全である正確な定式化が得られ、敵の例を正確に識別することができる。
一般アクティベーション(シグモイドやタンを含む)に対して、我々の2番目のモデルは、片方向のコンスタントな境界によってスケーラブルなオーバー近似を構築し、セグメンテーションが洗練されるにつれて近似誤差が消滅する漸近的に完備である。
さらに、量子ベンダー分解とインターバル演算を統合して解を高速化し、プリンドネットワークのロバスト性保証と元のモデルとの整合性保証を関連づけた証明-転送境界を提案する。
最後に、階層分割戦略は、深さにわたってサブプロブレムを結合することで量子-古典的ハイブリッドワークフローをサポートする。
堅牢性ベンチマークの実験は高い認証精度を示し、複雑なアクティベーションを持つニューラルネットワークにおいて、量子最適化がロバスト性保証の原則的プリミティブとして機能することを示している。
関連論文リスト
- Continual Quantum Architecture Search with Tensor-Train Encoding: Theory and Applications to Signal Processing [68.35481158940401]
CL-QASは連続的な量子アーキテクチャ検索フレームワークである。
振幅のエンコードと変分量子回路の忘れを犠牲にすることの課題を緩和する。
制御可能なロバスト性表現性、サンプル効率の一般化、およびバレンプラトーを使わずに滑らかな収束を実現する。
論文 参考訳(メタデータ) (2026-01-10T02:36:03Z) - Scalable Quantum Walk-Based Heuristics for the Minimum Vertex Cover Problem [0.0]
連続時間量子ウォーク(CTQW)に基づく最小頂点被覆(MVC)問題に対する新しい量子アルゴリズムを提案する。
この枠組みでは、グラフ上の量子ウォーカーのコヒーレントな伝播は、その構造特性を状態振幅に符号化する。
我々は,CTQWに基づくアルゴリズムが優れた近似比を一貫して達成し,ネットワークトポロジに関して顕著な堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2025-12-02T17:04:57Z) - Neural-Quantum-States Impurity Solver for Quantum Embedding Problems [2.7022139554331264]
任意に連結された不純物軌道を表すグラフトランスフォーマーに基づくNQSフレームワークを提案する。
量子埋め込みループを通して繰り返し更新を安定化するエラー制御機構を開発する。
論文 参考訳(メタデータ) (2025-09-15T20:33:10Z) - Progressive Element-wise Gradient Estimation for Neural Network Quantization [2.1413624861650358]
量子化アウェアトレーニング(QAT)法は、離散化関数の非微分可能性に対処するためにSTE(Straight-Through Estimator)に依存する。
本稿では,連続値と量子化値の離散化誤差に対処するため,PEGE(Progressive Element-wise Gradient Estimation)を提案する。
PEGEは、既存のバックプロパゲーション手法を一貫して上回り、低精度のモデルが彼らの完全精度の精度にマッチしたり、さらに上回ったりすることを可能にしている。
論文 参考訳(メタデータ) (2025-08-27T15:59:36Z) - Segmentation-Based Regression for Quantum Neural Networks [0.0]
量子ハードウェアの最近の進歩は、量子サンプリングと古典的推論を統合するアルゴリズムフレームワークの開発を動機付けている。
本研究は,量子ニューラルネットワーク(QNN)に適したセグメンテーションに基づく回帰手法を提案する。
回帰タスクを構造化された桁格子上の制約付き問題としてキャストすることにより、連続的な推論を解釈可能かつトラクタブルな更新に置き換える。
論文 参考訳(メタデータ) (2025-06-27T20:11:43Z) - Quantum-Classical Hybrid Quantized Neural Network [8.382617481718643]
本稿では、任意のアクティベーションと損失関数の使用を可能にする、量子化されたニューラルネットワークトレーニングのための新しい擬似バイナリ最適化(QBO)モデルを提案する。
我々はQCBO問題を直接解くために量子コンピューティングを利用するQCGD(Quantum Gradient Conditional Descent)アルゴリズムを用いる。
論文 参考訳(メタデータ) (2025-06-23T02:12:36Z) - Mitigating Barren Plateaus in Quantum Neural Networks via an AI-Driven Submartingale-Based Framework [3.0617189749929348]
量子ニューラルネットワーク(QNN)におけるバレンプラトー(BP)の緩和を目的としたAdaInitを提案する。
AdaInitは、非無視的な勾配分散をもたらすQNNの初期パラメータを反復的に合成し、BPを緩和する。
AdaInit が様々な QNN スケールで高い勾配分散を維持するために既存の手法を一貫して上回っていることを実証的に検証する。
論文 参考訳(メタデータ) (2025-02-17T05:57:15Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - The Sample Complexity of One-Hidden-Layer Neural Networks [57.6421258363243]
本研究では,スカラー値を持つ一層ネットワークのクラスとユークリッドノルムで有界な入力について検討する。
隠蔽層重み行列のスペクトルノルムの制御は、一様収束を保証するには不十分であることを示す。
スペクトルノルム制御が十分であることを示す2つの重要な設定を解析する。
論文 参考訳(メタデータ) (2022-02-13T07:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。