論文の概要: Constraint-based Adversarial Example Synthesis
- arxiv url: http://arxiv.org/abs/2406.01219v1
- Date: Mon, 3 Jun 2024 11:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 01:18:57.176040
- Title: Constraint-based Adversarial Example Synthesis
- Title(参考訳): 制約に基づく逆例合成
- Authors: Fang Yu, Ya-Yu Chi, Yu-Fang Chen,
- Abstract要約: この研究は、ニューラルネットワークを実装するPythonプログラムをテストするための特殊なテクニックであるConcolic Testingの強化に焦点を当てている。
拡張ツールであるPyCTは、浮動小数点演算やアクティベーション関数計算など、幅広いニューラルネットワーク操作に対応している。
- 参考スコア(独自算出の注目度): 1.2548803788632799
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the era of rapid advancements in artificial intelligence (AI), neural network models have achieved notable breakthroughs. However, concerns arise regarding their vulnerability to adversarial attacks. This study focuses on enhancing Concolic Testing, a specialized technique for testing Python programs implementing neural networks. The extended tool, PyCT, now accommodates a broader range of neural network operations, including floating-point and activation function computations. By systematically generating prediction path constraints, the research facilitates the identification of potential adversarial examples. Demonstrating effectiveness across various neural network architectures, the study highlights the vulnerability of Python-based neural network models to adversarial attacks. This research contributes to securing AI-powered applications by emphasizing the need for robust testing methodologies to detect and mitigate potential adversarial threats. It underscores the importance of rigorous testing techniques in fortifying neural network models for reliable applications in Python.
- Abstract(参考訳): 人工知能(AI)の急速な進歩の時代、ニューラルネットワークモデルは顕著なブレークスルーを達成した。
しかし、敵の攻撃に対する脆弱性が懸念されている。
この研究は、ニューラルネットワークを実装するPythonプログラムをテストするための特殊なテクニックであるConcolic Testingの強化に焦点を当てている。
拡張ツールであるPyCTは、浮動小数点演算やアクティベーション関数計算など、幅広いニューラルネットワーク操作に対応している。
予測経路の制約を体系的に生成することにより、潜在的敵対例の同定を容易にする。
この研究は、様々なニューラルネットワークアーキテクチャにおける有効性を実証し、敵攻撃に対するPythonベースのニューラルネットワークモデルの脆弱性を強調している。
この研究は、潜在的な敵対的脅威を検出し軽減するための堅牢なテスト手法の必要性を強調して、AIによるアプリケーションを保護することに貢献する。
Pythonの信頼性の高いアプリケーションのために、ニューラルネットワークモデルを強化する上で、厳格なテストテクニックの重要性を強調している。
関連論文リスト
- Statistical tuning of artificial neural network [0.0]
本研究では、ニューラルネットワークの理解を強化する方法を紹介し、特に1つの隠蔽層を持つモデルに焦点を当てる。
本稿では,入力ニューロンの意義を統計的に評価し,次元減少のためのアルゴリズムを提案する。
この研究は、ニューラルネットワークを解釈するための堅牢な統計フレームワークを提示することにより、説明可能な人工知能の分野を前進させる。
論文 参考訳(メタデータ) (2024-09-24T19:47:03Z) - Deep Learning Algorithms Used in Intrusion Detection Systems -- A Review [0.0]
本稿では,CNN,Recurrent Neural Networks(RNN),Deep Belief Networks(DBN),Deep Neural Networks(DNN),Long Short-Term Memory(LSTM),Autoencoders(AE),Multi-Layer Perceptrons(MLP),Self-Normalizing Networks(SNN),Hybrid Model(ネットワーク侵入検知システム)など,近年のディープラーニング技術の進歩について述べる。
論文 参考訳(メタデータ) (2024-02-26T20:57:35Z) - Self-Healing Robust Neural Networks via Closed-Loop Control [23.360913637445964]
典型的な自己修復機構は人体の免疫系である。
本稿では,ニューラルネットワークの学習後の自己修復について考察する。
本研究では,様々な攻撃や摂動によるエラーを自動的に検出し,修正するクローズドループ制御式を提案する。
論文 参考訳(メタデータ) (2022-06-26T20:25:35Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - A comparative study of neural network techniques for automatic software
vulnerability detection [9.443081849443184]
ソフトウェア脆弱性を検出する最も一般的な方法は静的解析である。
一部の研究者は、検出の知性を改善するために自動特徴抽出機能を持つニューラルネットワークの使用を提案している。
2つの典型的なニューラルネットワークの性能をテストするための広範な実験を実施しました。
論文 参考訳(メタデータ) (2021-04-29T01:47:30Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Experimental Review of Neural-based approaches for Network Intrusion
Management [8.727349339883094]
本稿では,侵入検出問題に適用したニューラルネットワーク手法の実験的検討を行う。
私たちは、ディープベースアプローチやウェイトレスニューラルネットワークを含む、侵入検出に関連する最も顕著なニューラルネットワークベースのテクニックの完全なビューを提供します。
我々の評価は、特に最先端のデータセットを使用してモデルのトレーニングを行う場合、ニューラルネットワークの価値を定量化する。
論文 参考訳(メタデータ) (2020-09-18T18:32:24Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。