論文の概要: QTrojan: A Circuit Backdoor Against Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2302.08090v1
- Date: Thu, 16 Feb 2023 05:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 14:52:21.822278
- Title: QTrojan: A Circuit Backdoor Against Quantum Neural Networks
- Title(参考訳): QTrojan:量子ニューラルネットワークに対する回路バックドア
- Authors: Cheng Chu, Lei Jiang, Martin Swany, Fan Chen
- Abstract要約: 回路レベルのバックドア攻撃であるtextitQTrojan を量子ニューラルネットワーク (QNN) に対して提案する。
QTrojanは、被害者QNNの変動量子回路に挿入される少数の量子ゲートによって実装される。
- 参考スコア(独自算出の注目度): 7.159964195773199
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a circuit-level backdoor attack, \textit{QTrojan}, against Quantum
Neural Networks (QNNs) in this paper. QTrojan is implemented by few quantum
gates inserted into the variational quantum circuit of the victim QNN. QTrojan
is much stealthier than a prior Data-Poisoning-based Backdoor Attack (DPBA),
since it does not embed any trigger in the inputs of the victim QNN or require
the access to original training datasets. Compared to a DPBA, QTrojan improves
the clean data accuracy by 21\% and the attack success rate by 19.9\%.
- Abstract(参考訳): 本稿では,量子ニューラルネットワーク(qnn)に対する回路レベルのバックドア攻撃である \textit{qtrojan} を提案する。
QTrojanは、被害者QNNの変動量子回路に挿入される少数の量子ゲートによって実装される。
QTrojanは、被害者のQNNの入力にトリガを埋め込んだり、オリジナルのトレーニングデータセットにアクセスする必要がなくなるため、以前のData-PoisoningベースのBackdoor Attack (DPBA)よりもずっとステルス性が高い。
DPBAと比較して、QTrojanはクリーンデータの精度を21\%、攻撃成功率を19.9\%改善する。
関連論文リスト
- Hardware Trojans in Quantum Circuits, Their Impacts, and Defense [2.089191490381739]
短い深さと低いゲート数を持つ回路は、より高いゲート数と深さを持つ変種よりも、正しい解を得ることができる。
多くのサードパーティコンパイラは、コンパイル時間の短縮、回路深さの削減、大規模な量子回路のゲート数削減のために開発されている。
論文 参考訳(メタデータ) (2024-02-02T16:44:52Z) - QDoor: Exploiting Approximate Synthesis for Backdoor Attacks in Quantum
Neural Networks [7.191064733894878]
量子ニューラルネットワーク(QNN)は、オブジェクト認識、自然言語処理、財務分析に成功している。
近似合成は、エラーを起こしやすい2量子ビット量子ゲートを減らすことでQNN回路を変更する。
ほぼ合成されたQNN回路において高い攻撃成功率を達成するために,新規でステルスなバックドア攻撃であるQDoorを提案する。
論文 参考訳(メタデータ) (2023-07-13T18:26:19Z) - TrojanNet: Detecting Trojans in Quantum Circuits using Machine Learning [5.444459446244819]
TrojanNetは、Trojan-inserted回路を検出して分類することで、量子回路のセキュリティを強化する新しいアプローチである。
トロイの木門型,ゲート数,挿入位置,コンパイラのバリエーションを導入し,12種類の多様なデータセットを生成する。
実験の結果、平均精度は98.80%、平均F1スコアは98.53%で、トロイの木馬挿入QAOA回路を効果的に検出し分類する。
論文 参考訳(メタデータ) (2023-06-29T05:56:05Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Trap and Replace: Defending Backdoor Attacks by Trapping Them into an
Easy-to-Replace Subnetwork [105.0735256031911]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本研究は,バックドアの有害な影響を除去しやすくする,新たなバックドア防衛戦略を提案する。
我々は10種類のバックドア攻撃に対して本手法を評価した。
論文 参考訳(メタデータ) (2022-10-12T17:24:01Z) - Quarantine: Sparsity Can Uncover the Trojan Attack Trigger for Free [126.15842954405929]
トロイの木馬攻撃はディープニューラルネットワーク(DNN)を脅かし、ほとんどのサンプルで正常に動作させるが、トリガーを付けた入力に対して操作された結果を生成する。
そこで我々は,まず,クリーンな入力において,ほぼ完全なトロイの木馬の情報のみを保存し,かつ,すでに孤立しているサブネットワークに埋め込まれたトリガを復元する,新しいトロイの木馬ネットワーク検出方式を提案する。
論文 参考訳(メタデータ) (2022-05-24T06:33:31Z) - Test-Time Detection of Backdoor Triggers for Poisoned Deep Neural
Networks [24.532269628999025]
深層ニューラルネットワーク(DNN)に対するバックドア(トロイの木馬)攻撃が出現
本稿では,画像分類に対するバックドア攻撃に対する「飛行中」防御法を提案する。
論文 参考訳(メタデータ) (2021-12-06T20:52:00Z) - Practical Detection of Trojan Neural Networks: Data-Limited and
Data-Free Cases [87.69818690239627]
本稿では,データスカース方式におけるトロイの木馬ネットワーク(トロイの木馬網)検出の問題点について検討する。
本稿では,データ限定型TrojanNet検出器(TND)を提案する。
さらに,データサンプルにアクセスせずにTrojanNetを検出できるデータフリーTNDを提案する。
論文 参考訳(メタデータ) (2020-07-31T02:00:38Z) - An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks [59.42357806777537]
トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
論文 参考訳(メタデータ) (2020-06-15T04:58:28Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。