論文の概要: Transient Attacks against the VMG-KLJN Secure Key Exchanger
- arxiv url: http://arxiv.org/abs/2309.04899v2
- Date: Fri, 29 Sep 2023 04:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 14:25:04.022909
- Title: Transient Attacks against the VMG-KLJN Secure Key Exchanger
- Title(参考訳): VMG-KLJNセキュアキー交換器に対する過渡攻撃
- Authors: Shahriar Ferdous, Laszlo B. Kish,
- Abstract要約: Vadai、Mingesz、Ginglの主要取引所は、過激な攻撃にさらされている。
これらの過激な攻撃に対抗する効果的な防御プロトコルが導入された。
本研究では,VMG-KLJNキー交換器のセキュリティ強化のために,同様の緩和手法を用いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The security vulnerability of the Vadai, Mingesz, and Gingl (VMG) Kirchhoff-Law-Johnson-Noise (KLJN) key exchanger, as presented in the publication "Nature, Science Report 5 (2015) 13653," has been exposed to transient attacks. Recently an effective defense protocol was introduced (Appl. Phys. Lett. 122 (2023) 143503) to counteract mean-square voltage-based (or mean-square current-based) transient attacks targeted at the ideal KLJN framework. In the present study, this same mitigation methodology has been employed to fortify the security of the VMG-KLJN key exchanger. It is worth noting that the protective measures need to be separately implemented for the HL and LH scenarios. This conceptual framework is corroborated through computer simulations, demonstrating that the application of this defensive technique substantially mitigates information leakage to a point of insignificance.
- Abstract(参考訳): Vadai, Mingesz, and Gingl (VMG) Kirchhoff-Law-Johnson-Noise (KLJN)キー交換器のセキュリティ上の脆弱性は、"Nature, Science Report 5 (2015) 13653" で発表された。
近年,効果的な防御プロトコルが導入された(Appl)。
Phys
忘れるな。
122 (2023) 143503) 理想KLJNフレームワークをターゲットにした平均二乗電圧ベース(または平均二乗電流ベース)過渡攻撃に対抗する。
本研究では,VMG-KLJNキー交換器のセキュリティ強化のために,同様の緩和手法を用いている。
なお、HLシナリオとLHシナリオでは、保護措置を別々に実施する必要がある。
この概念的枠組みはコンピュータシミュレーションによって裏付けられ、この防御技術の適用により情報漏洩が重要でない点に著しく軽減されることを示した。
関連論文リスト
- GenTel-Safe: A Unified Benchmark and Shielding Framework for Defending Against Prompt Injection Attacks [14.558728517191044]
我々は、GenTel-Shieldという新しいプロンプトインジェクション攻撃検出手法と総合評価ベンチマーク、GenTel-Benchを紹介する。
GenTel-Shieldの有効性を証明するため,GenTel-Benchデータセットに対するバニラ安全ガードレールと併用して評価を行った。
実証的に、GenTel-Shieldは最先端の攻撃検出成功率を達成することができる。
論文 参考訳(メタデータ) (2024-09-29T02:35:38Z) - MoJE: Mixture of Jailbreak Experts, Naive Tabular Classifiers as Guard for Prompt Attacks [2.873719680183099]
本稿では,大規模言語モデル(LLM)における脱獄予防の重要性を論じる。
我々は,既存の最先端ガードレールの限界を超えるよう設計された,新しいガードレールアーキテクチャであるMoJEを紹介する。
MoJEは、モデル推論中に最小限の計算オーバーヘッドを維持しながら、ジェイルブレイク攻撃の検出に優れる。
論文 参考訳(メタデータ) (2024-09-26T10:12:19Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - Defensive Prompt Patch: A Robust and Interpretable Defense of LLMs against Jailbreak Attacks [59.46556573924901]
本稿では,大規模言語モデル(LLM)のための新しいプロンプトベースの防御機構であるDPPを紹介する。
従来のアプローチとは異なり、DPP は LLM の高能率を維持しながら最小の攻撃成功率 (ASR) を達成するように設計されている。
LLAMA-2-7B-ChatおよびMistral-7B-Instruct-v0.2モデルによる実験結果から,DSPの堅牢性と適応性が確認された。
論文 参考訳(メタデータ) (2024-05-30T14:40:35Z) - Systematic Use of Random Self-Reducibility against Physical Attacks [10.581645335323655]
本研究は,パワーサイドチャネルやフォールトインジェクション攻撃を含む物理攻撃に対する,ブラックボックスソフトウェアに基づく新しい対策を提案する。
このアプローチでは、ランダムな自己認識性と自己正当性の概念を使用して、保護のための実行にランダムさと冗長性を追加する。
RSA-CRTシグネチャアルゴリズムとKyber Key Generation公開鍵暗号システムに対して,この対策のエンドツーエンド実装を示す。
論文 参考訳(メタデータ) (2024-05-08T16:31:41Z) - Defending Large Language Models against Jailbreak Attacks via Semantic
Smoothing [107.97160023681184]
適応型大規模言語モデル(LLM)は、ジェイルブレイク攻撃に対して脆弱である。
提案するSEMANTICSMOOTHは,与えられた入力プロンプトのセマンティック変換されたコピーの予測を集約するスムージングベースのディフェンスである。
論文 参考訳(メタデータ) (2024-02-25T20:36:03Z) - Security of quantum key distribution from generalised entropy
accumulation [2.1030878979833467]
一般的な量子鍵分布プロトコルのための公式なフレームワークを提供する。
一般攻撃に対するセキュリティは集団攻撃に対するセキュリティに還元されることを示す。
我々の証明は、一般化エントロピー蓄積と呼ばれる最近開発された情報理論ツールに依存している。
論文 参考訳(メタデータ) (2022-03-09T19:00:07Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Dispelling Myths on Superposition Attacks: Formal Security Model and
Attack Analyses [0.0]
マルチパーティプロトコルの重ね合わせ攻撃を考慮した最初の計算セキュリティモデルを提案する。
我々の新しいセキュリティモデルは、よく知られたOne-Time-Padプロトコルのセキュリティを証明することで満足できることを示す。
重畳攻撃に抵抗するセキュアな2要素計算のための最初の具体的なプロトコルを構築するために,この新たな知識を用いている。
論文 参考訳(メタデータ) (2020-07-01T18:00:54Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。