論文の概要: Addressing Side-Channel Threats in Quantum Key Distribution via Deep Anomaly Detection
- arxiv url: http://arxiv.org/abs/2508.12749v1
- Date: Mon, 18 Aug 2025 09:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.146438
- Title: Addressing Side-Channel Threats in Quantum Key Distribution via Deep Anomaly Detection
- Title(参考訳): 深部異常検出による量子鍵分布におけるサイドチャネル脅威の対応
- Authors: Junxuan Liu, Bingcheng Huang, Jialei Su, Qingquan Peng, Anqi Huang,
- Abstract要約: 一級機械学習アルゴリズムに基づく異常検出モデル。
モデルは既存のQKDネットワークに最小限のコストでデプロイできる。
マルチクラス機械学習アルゴリズムとは異なり、我々のアプローチは特定の攻撃タイプの事前知識に依存しない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional countermeasures against security side channels in quantum key distribution (QKD) systems often suffer from poor compatibility with deployed infrastructure, the risk of introducing new vulnerabilities, and limited applicability to specific types of attacks. In this work, we propose an anomaly detection (AD) model based on one-class machine learning algorithms to address these limitations. By constructing a dataset from the QKD system's operational states, the AD model learns the characteristics of normal behavior under secure conditions. When an attack occurs, the system's state deviates from the learned normal patterns and is identified as anomalous by the model. Experimental results show that the AD model achieves an area under the curve (AUC) exceeding 99\%, effectively safeguarding the QKD system's secure operation. Compared to traditional approaches, our model can be deployed with minimal cost in existing QKD networks without requiring additional optical or electrical components, thus avoiding the introduction of new side channels. Furthermore, unlike multi-class machine learning algorithms, our approach does not rely on prior knowledge of specific attack types and is potentially able to detect unknown attacks. These advantages--generality, ease of deployment, low cost, and high accuracy--make our model a practical and effective tool for protecting QKD systems against side-channel threats.
- Abstract(参考訳): 量子鍵分散(QKD)システムにおけるセキュリティサイドチャネルに対する従来の対策は、デプロイされたインフラストラクチャとの互換性の低さ、新たな脆弱性を導入するリスク、特定のタイプの攻撃に対する適用性に制限がある。
本研究では,これらの制約に対処する一級機械学習アルゴリズムに基づく異常検出(AD)モデルを提案する。
QKDシステムの運用状態からデータセットを構築することにより、ADモデルはセキュアな条件下での正常な動作の特徴を学習する。
攻撃が発生した場合、システムの状態は学習された通常のパターンから逸脱し、モデルによって異常として識別される。
実験の結果,ADモデルは曲線(AUC)の99%を超える領域を達成し,QKDシステムの安全な動作を効果的に保護することがわかった。
従来のアプローチと比較して,既存のQKDネットワークでは,光学部品や電気部品を必要とせず,最小限のコストで,新たなサイドチャネルの導入を回避できる。
さらに、マルチクラス機械学習アルゴリズムとは異なり、我々の手法は特定の攻撃タイプに関する事前知識に依存しておらず、未知の攻撃を検出できる可能性がある。
これらの利点 - 汎用性、デプロイの容易性、低コスト、高精度 - は、我々のモデルを、サイドチャネルの脅威からQKDシステムを保護するための実用的で効果的なツールにしました。
関連論文リスト
- Cybersecurity of Quantum Key Distribution Implementations [3.1498833540989413]
量子サイバーセキュリティのための新しい分析ツールと方法論を提案する。
我々は、脆弱性の概念、攻撃面、および古典的なサイバーセキュリティからQKD実装攻撃へのエクスプロイトに適応する。
この研究は、QKDの実装を実験的に攻撃するための現在の分析方法と、古典的なサイバーセキュリティの分野における数十年にわたる研究のギャップを埋めることから始まります。
論文 参考訳(メタデータ) (2025-08-06T17:37:04Z) - Entangled Threats: A Unified Kill Chain Model for Quantum Machine Learning Security [32.73124984242397]
量子機械学習(QML)システムは、古典的な機械学習の脆弱性を継承する。
本稿では,QML攻撃ベクトルの詳細な分類を,量子認識型キルチェーンフレームワークの対応する段階にマッピングする。
この研究は、量子機械学習の新たな分野において、より現実的な脅威モデリングと積極的なセキュリティ・イン・ディープス設計の基礎を提供する。
論文 参考訳(メタデータ) (2025-07-11T14:25:36Z) - Deep-learning-based continuous attacks on quantum key distribution protocols [0.0]
本稿では,深部再帰ニューラルネットワークのパターン認識能力と連続的な計測を併用した新たな個別攻撃方式を設計する。
我々の攻撃はノイズチャネルの量子ビット誤り率(QBER)をわずかに増加させ、スパイがシフされたキーのかなりの部分を推測することを可能にする。
論文 参考訳(メタデータ) (2024-08-22T17:39:26Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Autonomous Recognition of Erroneous Raw Key Bit Bias in Quantum Key Distribution [0.0]
生鍵におけるビット値の比率に関して起こり得るエラーの種類を示す。
このタイプのエラーを自律的に認識するメカニズムが与えられる。
また、このタイプのエラーに対する対策として、2つの対策を実施できる。
論文 参考訳(メタデータ) (2023-05-29T10:43:57Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Learning-Based Vulnerability Analysis of Cyber-Physical Systems [10.066594071800337]
本研究は,サイバー物理システムの脆弱性解析におけるディープラーニングの利用に焦点を当てる。
我々は,低レベル制御が拡張カルマンフィルタ(ekf)や異常検出器(anomaly detector)などに基づくcpsにおいて広く用いられている制御アーキテクチャを考える。
潜在的なセンシング攻撃が持つ影響を分析することを容易にするため、学習可能な攻撃生成器の開発が目的である。
論文 参考訳(メタデータ) (2021-03-10T06:52:26Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。