論文の概要: Adversarial attacks on an optical neural network
- arxiv url: http://arxiv.org/abs/2205.01226v1
- Date: Fri, 29 Apr 2022 14:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 09:05:54.811183
- Title: Adversarial attacks on an optical neural network
- Title(参考訳): 光ニューラルネットワークの逆攻撃
- Authors: Shuming Jiao, Ziwei Song, Shuiying Xiang
- Abstract要約: 光学ニューラルネットワーク(ONN)に対する敵対的攻撃は、これまでほとんど考えられなかった。
対応する敵攻撃方式を初めて提案する。
その結果,光学機械学習システムにおいては,敵攻撃も重要な問題であることがわかった。
- 参考スコア(独自算出の注目度): 2.302001830524133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks have been extensively investigated for machine learning
systems including deep learning in the digital domain. However, the adversarial
attacks on optical neural networks (ONN) have been seldom considered
previously. In this work, we first construct an accurate image classifier with
an ONN using a mesh of interconnected Mach-Zehnder interferometers (MZI). Then
a corresponding adversarial attack scheme is proposed for the first time. The
attacked images are visually very similar to the original ones but the ONN
system becomes malfunctioned and generates wrong classification results in most
time. The results indicate that adversarial attack is also a significant issue
for optical machine learning systems.
- Abstract(参考訳): デジタルドメインのディープラーニングを含む機械学習システムでは、敵対的な攻撃が広く研究されている。
しかし、光学ニューラルネットワーク(ONN)に対する敵対攻撃は、これまでほとんど考えられていなかった。
本研究では,mzi(interconnected mach-zehnder interferometers)のメッシュを用いて,onnを用いた高精度画像分類器を構築した。
そして、最初に対応する敵攻撃スキームを提案する。
攻撃された画像は元の画像と非常によく似ているが、ONNシステムは故障し、ほとんどの時間で間違った分類結果を生成する。
その結果,光学機械学習システムにおいては,敵攻撃も重要な問題であることがわかった。
関連論文リスト
- Defending Spiking Neural Networks against Adversarial Attacks through Image Purification [20.492531851480784]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - Adversarial-Aware Deep Learning System based on a Secondary Classical
Machine Learning Verification Approach [0.0]
我々は、ランダムフォレスト(RF)のような古典的な機械学習モデルの大半が敵攻撃モデルに免疫しているという仮説を策定する。
本稿では,古典的機械学習モデルを二次検証システムとして利用して,逆向きの深層学習システムを提案する。
提案手法は現状の敵防衛システムより優れている。
論文 参考訳(メタデータ) (2023-06-01T03:25:50Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - A Neuro-Inspired Autoencoding Defense Against Adversarial Perturbations [11.334887948796611]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
現在の最も効果的な防御策は、敵に摂動された例を使ってネットワークを訓練することである。
本稿では,神経に誘発される防御機構について検討する。
論文 参考訳(メタデータ) (2020-11-21T21:03:08Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - NAttack! Adversarial Attacks to bypass a GAN based classifier trained to
detect Network intrusion [0.3007949058551534]
機械学習の台頭以前、攻撃を示唆するネットワーク異常は、巧妙なルールを用いて検出された。
ネットワーク異常に対する機械学習の進歩により、人間がサイバー防御システムをバイパスする方法を理解することは容易ではない。
本稿では, 分類器を構築し, ネットワークデータの逆例で訓練しても, 敵攻撃を利用でき, システムを破壊することができることを示す。
論文 参考訳(メタデータ) (2020-02-20T01:54:45Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。