論文の概要: Denoised Internal Models: a Brain-Inspired Autoencoder against
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2111.10844v1
- Date: Sun, 21 Nov 2021 15:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:46:32.752419
- Title: Denoised Internal Models: a Brain-Inspired Autoencoder against
Adversarial Attacks
- Title(参考訳): 識別された内部モデル: 敵攻撃に対する脳誘発オートエンコーダ
- Authors: Kaiyuan Liu, Xingyu Li, Yi Zhou, Jisong Guan, Yurui Lai, Ge Zhang,
Hang Su, Jiachen Wang, Chunxu Guo
- Abstract要約: Denoized Internal Models (DIM) は、この課題に取り組むための新しい自動エンコーダベースのモデルである。
脳科学の最近の進歩に触発されて、我々はこの課題に取り組むための新しい生成自己エンコーダベースのモデルであるDIMを提案する。
敵攻撃42回以上のDIMを評価し, DIMは全攻撃に対して効果的に防御し, 総合的堅牢性ではSOTAよりも優れていた。
- 参考スコア(独自算出の注目度): 14.369147329131255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite its great success, deep learning severely suffers from robustness;
that is, deep neural networks are very vulnerable to adversarial attacks, even
the simplest ones. Inspired by recent advances in brain science, we propose the
Denoised Internal Models (DIM), a novel generative autoencoder-based model to
tackle this challenge. Simulating the pipeline in the human brain for visual
signal processing, DIM adopts a two-stage approach. In the first stage, DIM
uses a denoiser to reduce the noise and the dimensions of inputs, reflecting
the information pre-processing in the thalamus. Inspired from the sparse coding
of memory-related traces in the primary visual cortex, the second stage
produces a set of internal models, one for each category. We evaluate DIM over
42 adversarial attacks, showing that DIM effectively defenses against all the
attacks and outperforms the SOTA on the overall robustness.
- Abstract(参考訳): その大きな成功にもかかわらず、ディープラーニングは強固さに苦しめられている。つまり、深層ニューラルネットワークは、最も単純なものでさえ、敵対的な攻撃に対して非常に脆弱である。
近年の脳科学の発展に触発されて,この課題に取り組むための新しい自動エンコーダモデルであるdenoized internal models (dim)を提案する。
視覚信号処理のために人間の脳のパイプラインをシミュレートすると、DIMは2段階のアプローチを採用する。
最初の段階では、DIMはノイズと入力の寸法を減らし、視床の情報前処理を反映するためにデノイザーを使用する。
一次視覚野におけるメモリ関連トレースのスパースコーディングから着想を得た第2段階は、各カテゴリに1つずつの内部モデルを生成する。
敵攻撃42回以上のDIMを評価し, DIMは全攻撃に対して効果的に防御し, 総合的堅牢性ではSOTAよりも優れていた。
関連論文リスト
- Utilizing Machine Learning and 3D Neuroimaging to Predict Hearing Loss: A Comparative Analysis of Dimensionality Reduction and Regression Techniques [0.0]
我々は,脳の灰白質3次元画像における難聴閾値を予測するための機械学習アプローチについて検討した。
第1フェーズでは,3次元CNNモデルを用いて,遅延空間への高次元入力を低減した。
第2フェーズでは、このモデルを使用して、リッチな機能への入力を削減した。
論文 参考訳(メタデータ) (2024-04-30T18:39:41Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Fault Injection on Embedded Neural Networks: Impact of a Single
Instruction Skip [1.3654846342364308]
我々は、Cortex M432ビットマイクロコントローラプラットフォーム上に埋め込まれたニューラルネットワークモデルに適用した、2つの障害注入手段である電磁およびレーザー注入の使用に関する最初の実験を行った。
我々のゴールは、命令スキップである特定の障害モデルの影響をシミュレートし、実験的に示すことである。
我々は、典型的な畳み込みニューラルネットワークモデルの推論プログラムにおけるいくつかのステップをターゲットにして、整合性の脅威を明らかにする。
論文 参考訳(メタデータ) (2023-08-31T12:14:37Z) - On the Sensitivity of Deep Load Disaggregation to Adversarial Attacks [2.389598109913753]
敵対的攻撃は、コンピュータビジョンや音声認識のような領域において重大な脅威であることが証明されている。
本稿では,FGSM(Fast Gradient Sign Method)を用いて2つのCNNベースのNILMベースラインに入力シーケンスを摂動させる手法を提案する。
以上の結果から,これらのモデルの脆弱性,特にF1スコアの平均20%低下を示すS2Pモデルが示唆された。
論文 参考訳(メタデータ) (2023-07-14T13:10:01Z) - Wavelets Beat Monkeys at Adversarial Robustness [0.8702432681310401]
物理的にインスピレーションを受けた構造が、これまで人間の大脳皮質を巧みに模倣してしか考えられていなかったロバスト性に対する新たな洞察をいかに生み出すかを示す。
我々の研究は、物理的にインスピレーションを受けた構造が、これまで人間の大脳皮質を巧みに模倣してしか考えられていなかった堅牢性に対する新たな洞察をいかに生み出すかを示している。
論文 参考訳(メタデータ) (2023-04-19T03:41:30Z) - Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense [52.66971714830943]
マスク付き画像モデリング(MIM)は、自己教師付き視覚表現学習のフレームワークとして普及している。
本稿では,この強力な自己教師型学習パラダイムが,下流の分類器に対して対角的ロバスト性を提供する方法について検討する。
本稿では,デノナイジングのためのデコーダを用いて,デノナイジングのための対角防御手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T12:37:24Z) - DDDM: a Brain-Inspired Framework for Robust Classification [8.516472261110117]
深層人工ニューラルネットワークは入力ノイズ、特に敵の摂動に敏感である。
本稿では,任意のニューラルネットワークのロバスト性を改善するために,テストフェーズドロップアウトとドリフト拡散モデルを組み合わせたDropout-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2022-05-01T06:49:13Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。