論文の概要: Blackbox Trojanising of Deep Learning Models : Using non-intrusive
network structure and binary alterations
- arxiv url: http://arxiv.org/abs/2008.00408v1
- Date: Sun, 2 Aug 2020 06:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:28:57.891855
- Title: Blackbox Trojanising of Deep Learning Models : Using non-intrusive
network structure and binary alterations
- Title(参考訳): ディープラーニングモデルのブラックボックストロイニング : 非インタラクティブネットワーク構造とバイナリチェンジを用いて
- Authors: Jonathan Pan
- Abstract要約: 本研究は,任意の深層学習画像分類モデルに対して,単純なネットワーク構造を改良したブラックボックス・トロヤージング手法を提案する。
これらのモデルに十分な安全保護を提供することの重要性を強調し、AIイノベーションと採用の意図された利益を保護できることを強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Artificial Intelligence namely in Deep Learning has
heightened its adoption in many applications. Some are playing important roles
to the extent that we are heavily dependent on them for our livelihood.
However, as with all technologies, there are vulnerabilities that malicious
actors could exploit. A form of exploitation is to turn these technologies,
intended for good, to become dual-purposed instruments to support deviant acts
like malicious software trojans. As part of proactive defense, researchers are
proactively identifying such vulnerabilities so that protective measures could
be developed subsequently. This research explores a novel blackbox trojanising
approach using a simple network structure modification to any deep learning
image classification model that would transform a benign model into a deviant
one with a simple manipulation of the weights to induce specific types of
errors. Propositions to protect the occurrence of such simple exploits are
discussed in this research. This research highlights the importance of
providing sufficient safeguards to these models so that the intended good of AI
innovation and adoption may be protected.
- Abstract(参考訳): 近年の人工知能の進歩、すなわちDeep Learningは、多くのアプリケーションで採用を高めている。
生活に大きく依存している程度に重要な役割を担っている人もいます。
しかし、あらゆる技術と同様に、悪意のあるアクターが悪用できる脆弱性がある。
悪質なソフトウェアトロイの木馬のような悪質な行為をサポートするために、善意を意図したこれらのテクノロジーを二重目的の道具に変えようとする。
積極的な防御の一環として、研究者はそのような脆弱性を積極的に特定し、その後に保護策を開発することができる。
本研究は,深層学習画像分類モデルに対する単純なネットワーク構造修正を用いた,新しいブラックボックスのトロイの木馬アプローチを探求する。
本研究は,このような簡単なエクスプロイトの発生を保護するための提案について論じる。
この研究は、aiのイノベーションと導入の意図した利益を保護できるように、これらのモデルに十分なセーフガードを提供することの重要性を強調している。
関連論文リスト
- Countering Autonomous Cyber Threats [40.00865970939829]
ファンデーションモデルは、サイバードメイン内で広く、特に二元的関心事を提示します。
近年の研究では、これらの先進的なモデルが攻撃的なサイバースペース操作を通知または独立に実行する可能性を示している。
この研究は、孤立したネットワークでマシンを妥協する能力について、最先端のいくつかのFMを評価し、そのようなAIによる攻撃を倒す防御メカニズムを調査する。
論文 参考訳(メタデータ) (2024-10-23T22:46:44Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Do You Trust Your Model? Emerging Malware Threats in the Deep Learning
Ecosystem [37.650342256199096]
ニューラルネットワークに自己抽出型自己実行型マルウェアを組み込むテクニックであるMaleficNet 2.0を紹介する。
MaleficNet 2.0インジェクションテクニックはステルス性があり、モデルのパフォーマンスを低下させることなく、除去テクニックに対して堅牢である。
我々は、MaleficNet 2.0を用いた概念実証型自己抽出ニューラルネットワークマルウェアを実装し、広く採用されている機械学習フレームワークに対する攻撃の実用性を実証した。
論文 参考訳(メタデータ) (2024-03-06T10:27:08Z) - Topological safeguard for evasion attack interpreting the neural
networks' behavior [0.0]
本研究は, 新規な回避攻撃検知装置の開発である。
入力サンプルが注入されたとき、モデルによって与えられるニューロンの活性化に関する情報に焦点を当てる。
この目的のためには、これらの情報をすべて検出器に導入するために、巨大なデータ前処理が必要である。
論文 参考訳(メタデータ) (2024-02-12T08:39:40Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。