論文の概要: NeuPerm: Disrupting Malware Hidden in Neural Network Parameters by Leveraging Permutation Symmetry
- arxiv url: http://arxiv.org/abs/2510.20367v1
- Date: Thu, 23 Oct 2025 09:08:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.720003
- Title: NeuPerm: Disrupting Malware Hidden in Neural Network Parameters by Leveraging Permutation Symmetry
- Title(参考訳): NeuPerm: 置換対称性の活用によるニューラルネットワークパラメータに隠された破壊的マルウェア
- Authors: Daniel Gilkarov, Ran Dubin,
- Abstract要約: モデル共有は、悪意のある目的のためにモデルを活用するサイバー脅威にエンドユーザーをさらけ出す。
我々はニューラルネットワークの置換対称性の理論的特性を利用して,そのようなマルウェアを破壊する方法であるNeuPermを提案する。
提案手法は, モデル性能にはほとんど影響を与えず, 現状の攻撃を妨害する効果を実証的に示す。
- 参考スコア(独自算出の注目度): 7.154621689269006
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pretrained deep learning model sharing holds tremendous value for researchers and enterprises alike. It allows them to apply deep learning by fine-tuning models at a fraction of the cost of training a brand-new model. However, model sharing exposes end-users to cyber threats that leverage the models for malicious purposes. Attackers can use model sharing by hiding self-executing malware inside neural network parameters and then distributing them for unsuspecting users to unknowingly directly execute them, or indirectly as a dependency in another software. In this work, we propose NeuPerm, a simple yet effec- tive way of disrupting such malware by leveraging the theoretical property of neural network permutation symmetry. Our method has little to no effect on model performance at all, and we empirically show it successfully disrupts state-of-the-art attacks that were only previously addressed using quantization, a highly complex process. NeuPerm is shown to work on LLMs, a feat that no other previous similar works have achieved. The source code is available at https://github.com/danigil/NeuPerm.git.
- Abstract(参考訳): 事前訓練されたディープラーニングモデル共有は、研究者や企業にとっても大きな価値があります。
これにより、新しいモデルをトレーニングするコストのごく一部で、モデルを微調整することでディープラーニングを適用することができる。
しかし、モデル共有は、悪意のある目的のためにモデルを活用するサイバー脅威にエンドユーザーをさらけ出す。
攻撃者は、ニューラルネットワークパラメータ内にマルウェアを隠蔽し、疑わしいユーザに対して無意識に直接実行するか、あるいは別のソフトウェアへの依存関係として間接的に配布することで、モデル共有を使用することができる。
本研究では,ニューラルネットワークの置換対称性の理論的特性を活用することで,そのマルウェアを破壊できる簡易かつエフェックな方法であるNeuPermを提案する。
提案手法は, モデル性能にはほとんど影響を与えず, 従来, 量子化法でのみ対処されていた最先端の攻撃を, 極めて複雑なプロセスで破壊する効果を実証的に示す。
NeuPerm は LLMs で作業していることが示されている。
ソースコードはhttps://github.com/danigil/NeuPerm.gitで入手できる。
関連論文リスト
- Neural Metamorphosis [72.88137795439407]
本稿では,ニューラル・メタモルファス(NeuMeta)と呼ばれる,自己変形可能なニューラルネットワークの構築を目的とした新たな学習パラダイムを提案する。
NeuMetaはニューラルネットワークの連続重み多様体を直接学習する。
75%の圧縮速度でもフルサイズの性能を維持する。
論文 参考訳(メタデータ) (2024-10-10T14:49:58Z) - Stealth edits to large language models [76.53356051271014]
モデルの編集可能性を評価するために、1つのメトリックを使用できることを示す。
また、ステルス攻撃に対する言語モデルの脆弱性を明らかにします。
論文 参考訳(メタデータ) (2024-06-18T14:43:18Z) - Do You Trust Your Model? Emerging Malware Threats in the Deep Learning Ecosystem [36.28578334243828]
ニューラルネットワークに自己抽出型自己実行型マルウェアを組み込むテクニックであるMaleficNet 2.0を紹介する。
MaleficNet 2.0インジェクションテクニックはステルス性があり、モデルのパフォーマンスを低下させることなく、除去テクニックに対して堅牢である。
我々は、MaleficNet 2.0を用いた概念実証型自己抽出ニューラルネットワークマルウェアを実装し、広く採用されている機械学習フレームワークに対する攻撃の実用性を実証した。
論文 参考訳(メタデータ) (2024-03-06T10:27:08Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - MOVE: Effective and Harmless Ownership Verification via Embedded External Features [104.97541464349581]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
次に、メタ分類器をトレーニングして、モデルが被害者から盗まれたかどうかを判断します。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - DeepSight: Mitigating Backdoor Attacks in Federated Learning Through
Deep Model Inspection [26.593268413299228]
フェデレートラーニング(FL)では、複数のクライアントが、データを公開せずに、プライベートデータ上でニューラルネットワーク(NN)モデルを協調的にトレーニングすることができる。
DeepSightは、バックドア攻撃を緩和するための新しいモデルフィルタリングアプローチである。
モデルの性能に悪影響を及ぼすことなく、最先端のバックドア攻撃を軽減できることを示す。
論文 参考訳(メタデータ) (2022-01-03T17:10:07Z) - EvilModel 2.0: Hiding Malware Inside of Neural Network Models [7.060465882091837]
ニューラルネットワークモデルをステゴマルウェアに変えることは、AIの悪意ある使用である。
既存の手法では、マルウェアの埋め込み率が低く、モデルの性能に高い影響を与える。
本稿では,高容量かつサービス品質の劣化のないモデルにマルウェアを埋め込む新しい方法を提案する。
論文 参考訳(メタデータ) (2021-09-09T15:31:33Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。