論文の概要: Do You Trust Your Model? Emerging Malware Threats in the Deep Learning
Ecosystem
- arxiv url: http://arxiv.org/abs/2403.03593v1
- Date: Wed, 6 Mar 2024 10:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 15:24:16.797210
- Title: Do You Trust Your Model? Emerging Malware Threats in the Deep Learning
Ecosystem
- Title(参考訳): あなたのモデルを信じていますか。
ディープラーニングエコシステムにおけるマルウェアの脅威
- Authors: Dorjan Hitaj, Giulio Pagnotta, Fabio De Gaspari, Sediola Ruko, Briland
Hitaj, Luigi V. Mancini, Fernando Perez-Cruz
- Abstract要約: ニューラルネットワークに自己抽出型自己実行型マルウェアを組み込むテクニックであるMaleficNet 2.0を紹介する。
MaleficNet 2.0インジェクションテクニックはステルス性があり、モデルのパフォーマンスを低下させることなく、除去テクニックに対して堅牢である。
我々は、MaleficNet 2.0を用いた概念実証型自己抽出ニューラルネットワークマルウェアを実装し、広く採用されている機械学習フレームワークに対する攻撃の実用性を実証した。
- 参考スコア(独自算出の注目度): 37.650342256199096
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Training high-quality deep learning models is a challenging task due to
computational and technical requirements. A growing number of individuals,
institutions, and companies increasingly rely on pre-trained, third-party
models made available in public repositories. These models are often used
directly or integrated in product pipelines with no particular precautions,
since they are effectively just data in tensor form and considered safe. In
this paper, we raise awareness of a new machine learning supply chain threat
targeting neural networks. We introduce MaleficNet 2.0, a novel technique to
embed self-extracting, self-executing malware in neural networks. MaleficNet
2.0 uses spread-spectrum channel coding combined with error correction
techniques to inject malicious payloads in the parameters of deep neural
networks. MaleficNet 2.0 injection technique is stealthy, does not degrade the
performance of the model, and is robust against removal techniques. We design
our approach to work both in traditional and distributed learning settings such
as Federated Learning, and demonstrate that it is effective even when a reduced
number of bits is used for the model parameters. Finally, we implement a
proof-of-concept self-extracting neural network malware using MaleficNet 2.0,
demonstrating the practicality of the attack against a widely adopted machine
learning framework. Our aim with this work is to raise awareness against these
new, dangerous attacks both in the research community and industry, and we hope
to encourage further research in mitigation techniques against such threats.
- Abstract(参考訳): 高品質なディープラーニングモデルのトレーニングは、計算と技術的要件のために難しい課題である。
多くの個人、機関、企業は、公開リポジトリで利用可能な事前訓練されたサードパーティモデルに依存している。
これらのモデルは、テンソル形式で事実上データであり、安全とみなされるため、製品パイプラインに直接、あるいは特定の予防措置なしで統合されることが多い。
本稿では,ニューラルネットワークを対象とした新しい機械学習サプライチェーンの脅威に対する認識を高める。
ニューラルネットワークに自己抽出型自己実行型マルウェアを組み込む新しいテクニックであるMaleficNet 2.0を紹介する。
MaleficNet 2.0は、深層ニューラルネットワークのパラメータに悪意のあるペイロードを注入するために、拡散スペクトルチャネルコーディングとエラー訂正技術を組み合わせて使用している。
maleficnet 2.0注入技術はステルスであり、モデルの性能を損なうことなく、除去技術に対して堅牢である。
我々は、フェデレートラーニングのような従来の学習環境と分散学習環境の両方で動作するアプローチを設計し、モデルパラメータにビット数が減った場合でも有効であることを示した。
最後に,mareficnet 2.0を用いて概念実証型自己抽出型ニューラルネットワークマルウェアを実装し,広く採用されている機械学習フレームワークに対する攻撃の実用性を示す。
本研究の目的は、研究コミュニティと産業の両方において、これらの新たな危険な攻撃に対する認識を高めることであり、そのような脅威に対する緩和技術に関するさらなる研究を奨励することである。
関連論文リスト
- Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Zero Day Threat Detection Using Metric Learning Autoencoders [3.1965908200266173]
企業ネットワークへのゼロデイ脅威(ZDT)の拡散は、非常にコストがかかる。
ディープラーニング手法は、高度に非線形な振る舞いパターンをキャプチャする能力にとって魅力的な選択肢である。
ここで提示されるモデルは、さらに2つのデータセットでトレーニングされ、評価され、新しいネットワークトポロジに一般化しても、有望な結果を示し続ける。
論文 参考訳(メタデータ) (2022-11-01T13:12:20Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - EvilModel 2.0: Hiding Malware Inside of Neural Network Models [7.060465882091837]
ニューラルネットワークモデルをステゴマルウェアに変えることは、AIの悪意ある使用である。
既存の手法では、マルウェアの埋め込み率が低く、モデルの性能に高い影響を与える。
本稿では,高容量かつサービス品質の劣化のないモデルにマルウェアを埋め込む新しい方法を提案する。
論文 参考訳(メタデータ) (2021-09-09T15:31:33Z) - Mal2GCN: A Robust Malware Detection Approach Using Deep Graph
Convolutional Networks With Non-Negative Weights [1.3190581566723918]
実世界の敵に対するマルウェア検出モデルの堅牢性を評価するために,ブラックボックスのソースコードをベースとしたマルウェア生成手法を提案する。
そこで我々は,堅牢なマルウェア検出モデルであるMal2GCNを提案する。Mal2GCNは,グラフ畳み込みネットワークの表現力と非負重み学習法を組み合わせて,高い検出精度でマルウェア検出モデルを作成する。
論文 参考訳(メタデータ) (2021-08-27T19:42:13Z) - A Generative Model based Adversarial Security of Deep Learning and
Linear Classifier Models [0.0]
我々は,オートエンコーダモデルを用いた機械学習モデルに対する敵攻撃の軽減手法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主な考え方は、トレーニングされたモデルを操作することによって誤った結果を生成することである。
また、ディープニューラルネットワークから従来のアルゴリズムに至るまで、様々な攻撃手法に対するオートエンコーダモデルの性能についても紹介した。
論文 参考訳(メタデータ) (2020-10-17T17:18:17Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。