論文の概要: Cryptographic Backdoor for Neural Networks: Boon and Bane
- arxiv url: http://arxiv.org/abs/2509.20714v1
- Date: Thu, 25 Sep 2025 03:27:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.680534
- Title: Cryptographic Backdoor for Neural Networks: Boon and Bane
- Title(参考訳): ニューラルネットワークのための暗号バックドア - BoonとBone
- Authors: Anh Tu Ngo, Anupam Chattopadhyay, Subhamoy Maitra,
- Abstract要約: ニューラルネットワーク(NN)における暗号バックドアは2つの方向に非常に効果的であることを示す。
攻撃側では、慎重に配置された暗号バックドアにより、NNに対する強力で目に見えない攻撃が可能になる。
第1に、ユーザ認証を保証するプロトコル、第3に、NN知的財産権(IP)の不正な共有を追跡するプロトコルである。
- 参考スコア(独自算出の注目度): 3.276616928313739
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we show that cryptographic backdoors in a neural network (NN) can be highly effective in two directions, namely mounting the attacks as well as in presenting the defenses as well. On the attack side, a carefully planted cryptographic backdoor enables powerful and invisible attack on the NN. Considering the defense, we present applications: first, a provably robust NN watermarking scheme; second, a protocol for guaranteeing user authentication; and third, a protocol for tracking unauthorized sharing of the NN intellectual property (IP). From a broader theoretical perspective, borrowing the ideas from Goldwasser et. al. [FOCS 2022], our main contribution is to show that all these instantiated practical protocol implementations are provably robust. The protocols for watermarking, authentication and IP tracking resist an adversary with black-box access to the NN, whereas the backdoor-enabled adversarial attack is impossible to prevent under the standard assumptions. While the theoretical tools used for our attack is mostly in line with the Goldwasser et. al. ideas, the proofs related to the defense need further studies. Finally, all these protocols are implemented on state-of-the-art NN architectures with empirical results corroborating the theoretical claims. Further, one can utilize post-quantum primitives for implementing the cryptographic backdoors, laying out foundations for quantum-era applications in machine learning (ML).
- Abstract(参考訳): 本稿では,ニューラルネットワーク(NN)における暗号バックドアが,攻撃の実施と防御効果の提示という2つの方向に極めて効果的であることを示す。
攻撃側では、慎重に配置された暗号バックドアにより、NNに対する強力で目に見えない攻撃が可能になる。
第1に、ユーザ認証を保証するプロトコル、第3に、NN知的財産権(IP)の不正な共有を追跡するプロトコルである。
Goldwasser ら [FOCS 2022] のアイデアを借りて、より広い理論的観点から、我々の主な貢献は、これらのインスタンス化された実用的なプロトコル実装が、確実に堅牢であることを示すことです。
透かし、認証、IP追跡のためのプロトコルは、NNへのブラックボックスアクセスで敵に抵抗するが、バックドア対応の敵攻撃は標準的な仮定では阻止できない。
我々の攻撃に使用される理論ツールは、主にゴールドワッサーらのアイデアと一致しているが、防衛に関する証明にはさらなる研究が必要である。
最後に、これらのプロトコルはすべて、理論的な主張を裏付ける実証的な結果を得た最先端のNNアーキテクチャで実装されている。
さらに、量子後プリミティブを使用して暗号バックドアを実装し、機械学習(ML)における量子時代のアプリケーションの基礎を構築できる。
関連論文リスト
- Flashy Backdoor: Real-world Environment Backdoor Attack on SNNs with DVS Cameras [11.658496836117907]
スパイキングニューラルネットワーク(SNN)を用いた実環境におけるバックドアアタックの初評価について述べる。
本稿では,SNNに新たな3つのバックドア攻撃手法,すなわちFramed,Strobing,F Flashy Backdoorを提案する。
本研究は, バックドア攻撃に対するSNNベースのシステムのセキュリティと, 現実のシナリオにおける安全性を確保するために, さらなる研究が必要であることを示すものである。
論文 参考訳(メタデータ) (2024-11-05T11:44:54Z) - Backdoor Attacks against Hybrid Classical-Quantum Neural Networks [11.581538622210896]
ハイブリッド量子ニューラルネットワーク(HQNN)は量子機械学習(QML)における将来性を示す
HQNNに対するバックドア攻撃に関する最初の体系的研究について述べる。
論文 参考訳(メタデータ) (2024-07-23T08:25:34Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - When Side-Channel Attacks Break the Black-Box Property of Embedded
Artificial Intelligence [0.8192907805418583]
ディープニューラルネットワーク(DNN)は、人間の観察者にとって検出不能な状態でネットワークを騙すために設計された悪意のある例である。
本稿では,ロジットを抽出することで,この制約を解決するアーキテクチャ非依存攻撃を提案する。
本手法は, 電磁漏れを利用したサイドチャネル攻撃を行うことにより, ハードウェアとソフトウェアを併用する。
論文 参考訳(メタデータ) (2023-11-23T13:41:22Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Preventing Distillation-based Attacks on Neural Network IP [0.9558392439655015]
ニューラルネットワーク(NN)はすでにハードウェアにデプロイされており、トレーニングと最適化に何時間も費やされているため、貴重な知的財産権(IP)になっている。
そこで本研究では,蒸留による攻撃を防ぎ,予測を害する直感的な方法を提案する。
提案手法はNNを難読化して、攻撃者がNNを完全に的確に訓練できないようにする。
論文 参考訳(メタデータ) (2022-04-01T08:53:57Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Dynamic Backdoor Attacks Against Machine Learning Models [28.799895653866788]
本研究では,DNN(Random Backdoor,Backdoor Generating Network,BaN)および条件付きBackdoor Generating Network(c-BaN)に対する動的バックドア技術の最初のクラスを提案する。
新たな生成ネットワークに基づくBaNとc-BaNは、アルゴリズムによってトリガを生成する最初の2つのスキームである。
本手法は, バックドアデータに対するほぼ完璧な攻撃性能を実現し, 実用性に欠ける損失を生じさせる。
論文 参考訳(メタデータ) (2020-03-07T22:46:51Z) - Defending against Backdoor Attack on Deep Neural Networks [79.0484137934143]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。