論文の概要: LoRA-based Parameter-Efficient LLMs for Continuous Learning in Edge-based Malware Detection
- arxiv url: http://arxiv.org/abs/2602.11655v1
- Date: Thu, 12 Feb 2026 07:20:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.690188
- Title: LoRA-based Parameter-Efficient LLMs for Continuous Learning in Edge-based Malware Detection
- Title(参考訳): エッジベースマルウェア検出における連続学習のためのLoRAに基づくパラメータ効率のLLM
- Authors: Christian Rondanini, Barbara Carminati, Elena Ferrari, Niccolò Lardo, Ashish Kundu,
- Abstract要約: エッジデバイス上でのマルウェア検出のための継続的学習アーキテクチャを提案する。
軽量トランスモデル(DistilBERT、DistilGPT-2、TinyT5)はエッジノード上で動作し、デバイス固有のトラフィックに対して徐々に微調整される。
Edge-IIoTsetとTON-IoTの2つの公開IoTセキュリティデータセットをマルチラウンド学習で評価し、進化する脅威をシミュレートした。
- 参考スコア(独自算出の注目度): 3.676378009156675
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The proliferation of edge devices has created an urgent need for security solutions capable of detecting malware in real time while operating under strict computational and memory constraints. Recently, Large Language Models (LLMs) have demonstrated remarkable capabilities in recognizing complex patterns, yet their deployment on edge devices remains impractical due to their resource demands. However, in edge malware detection, static or centrally retrained models degrade under evolving threats and heterogeneous traffic; locally trained models become siloed and fail to transfer across domains. To overcome these limitations, in this paper, we present a continuous learning architecture for edge-based malware detection that combines local adaptation on each device with global knowledge sharing through parameter-efficient LoRA adapters. Lightweight transformer models (DistilBERT, DistilGPT-2, TinyT5) run on edge nodes and are incrementally fine-tuned on device-specific traffic; only the resulting LoRA modules are aggregated by a lightweight coordinator and redistributed, enabling cross-device generalization without exchanging raw data. We evaluate on two public IoT security datasets, Edge-IIoTset and TON-IoT, under multi-round learning to simulate evolving threats. Compared to isolated fine-tuning, the LoRA-based exchange yields up to 20-25% accuracy gains when models encounter previously unseen attacks from another domain, while maintaining stable loss and F1 across rounds. LoRA adds less than 1% to model size (~0.6-1.8 MB), making updates practical for constrained edge hardware.
- Abstract(参考訳): エッジデバイスの普及により、厳密な計算とメモリ制約の下で動作しながらマルウェアをリアルタイムで検出できるセキュリティソリューションが緊急に必要になった。
近年,Large Language Models (LLM) は複雑なパターンを認識する際,顕著な能力を示した。
しかし、エッジマルウェア検出では、進化する脅威と不均一なトラフィックの下で、静的または中心的に再訓練されたモデルは劣化し、局所的に訓練されたモデルはサイロ化され、ドメイン間での転送に失敗する。
本稿では,各デバイス上の局所的な適応とパラメータ効率のよいLoRAアダプタによるグローバルな知識共有を組み合わせた,エッジベースのマルウェア検出のための継続的学習アーキテクチャを提案する。
軽量トランスモデル (DistilBERT, DistilGPT-2, TinyT5) はエッジノード上で動作し、デバイス固有のトラフィックを段階的に微調整する。
Edge-IIoTsetとTON-IoTの2つの公開IoTセキュリティデータセットをマルチラウンド学習で評価し、進化する脅威をシミュレートした。
分離された微調整と比較すると、LoRAベースの交換は、他のドメインからの未確認攻撃に遭遇したモデルに対して最大20-25%の精度向上を達成し、安定な損失とラウンド間のF1を維持する。
LoRAはモデルサイズ(約0.6-1.8MB)に1%未満を追加し、エッジハードウェアの更新を実用的なものにした。
関連論文リスト
- Decomposing and Composing: Towards Efficient Vision-Language Continual Learning via Rank-1 Expert Pool in a Single LoRA [50.97792275353563]
単一低ランク適応 (LoRA) モジュールを分解可能な Rank-1 エキスパートプールとして再構成する,新しいフレームワークを提案する。
本手法では,このエキスパートプールから[Guided]トークンのセマンティクスに導かれて,疎結合でタスク固有の更新を動的に作成することを学ぶ。
論文 参考訳(メタデータ) (2026-01-30T10:54:51Z) - OpenRT: An Open-Source Red Teaming Framework for Multimodal LLMs [36.57820295876294]
MLLMの安全性評価のための統一的,モジュール型,高スループットのRed-teamingフレームワークであるOpenRTを紹介した。
OpenRTのコアとなるのは,5次元にわたるモジュール分離を可能にする対角カーネルを導入することで,自動化された再チームのパラダイムシフトだ。
このフレームワークは、ホワイトボックス勾配、マルチモーダル摂動、高度なマルチエージェント進化戦略など、37の多様な攻撃手法を統合している。
論文 参考訳(メタデータ) (2026-01-04T16:41:33Z) - Large Language Models for Real-World IoT Device Identification [5.841950328636518]
異種ネットワークメタデータ上での言語モデリングタスクとしてデバイス識別を再構成するセマンティック推論パイプラインを導入する。
信頼性の高い監視を構築するために、IoT Inspectorデータセット用の高忠実度ベンダーラベルを生成します。
次に,LLaMA3.18Bの量子化モデルとカリキュラム学習を併用し,疎性および長期ベンダー分布下での一般化を支援する。
論文 参考訳(メタデータ) (2025-09-24T05:33:48Z) - Securing Transformer-based AI Execution via Unified TEEs and Crypto-protected Accelerators [19.93096649006403]
マシンラーニングは信頼できないクラウドインフラストラクチャ上で動作し、データとモデルを潜在的な侵害に晒す。
信頼された実行環境(TEE)内で完全にモデル推論を実行すると、非自明なスローダウンが発生する。
異種TEEおよびアクセラレータシステムにおけるセキュアトランスフォーマー推論を実現するフレームワークであるTwinShieldを提案する。
論文 参考訳(メタデータ) (2025-07-04T03:52:53Z) - LoRA-Gen: Specializing Large Language Model via Online LoRA Generation [68.01864057372067]
タスク記述に基づくエッジサイドモデルのLoRAパラメータを生成するためのLoRA-Genフレームワークを提案する。
フレキシブルな特殊化を実現するために,LoRAパラメータをエッジ側モデルにマージする。
本手法は,モデル間の知識伝達を容易にするとともに,特殊モデルの推論効率を大幅に向上させる。
論文 参考訳(メタデータ) (2025-06-13T10:11:01Z) - Unlocking Tuning-Free Few-Shot Adaptability in Visual Foundation Models by Recycling Pre-Tuned LoRAs [76.40876036912537]
大規模言語モデル(LLM)は、微調整を必要とせず、強力な少数ショット適応性を示す。
現在のVisual Foundation Models (VFM) は十分なチューニングデータを持つ明示的な微調整を必要とする。
そこで我々は, メタ学習目的の多様なLoRAからメタLoRAを蒸留するフレームワークであるLoRA Recycleを提案する。
論文 参考訳(メタデータ) (2024-12-03T07:25:30Z) - Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [50.980446687774645]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - SHFL: Secure Hierarchical Federated Learning Framework for Edge Networks [26.482930943380918]
Federated Learning(FL)は、プライバシに敏感なアプリケーションのために設計された分散機械学習パラダイムで、リソースに制約のあるデバイス上で、非IdenticallyおよびIndependently Distributed (IID)データで実行される。
従来のFLフレームワークでは,クライアントデバイスから受信したすべてのトレーニング済みローカルモデルを集約することで,サーバがグローバルモデルを構築するという,単一レベルの集約プロセスを備えたクライアントサーバモデルを採用しています。
論文 参考訳(メタデータ) (2024-09-23T14:38:20Z) - Distributed Threat Intelligence at the Edge Devices: A Large Language Model-Driven Approach [0.0]
エッジデバイス上の分散脅威インテリジェンスは、リソース制約されたエッジデバイス上でのサイバーセキュリティを強化するための有望なパラダイムである。
このアプローチでは、エッジデバイスに直接軽量機械学習モデルをデプロイして、ネットワークトラフィックやシステムログなどのローカルデータストリームをリアルタイムで分析する。
提案するフレームワークは,ネットワークからエッジデバイスを分離することで,サイバー脅威の検出と緩和において,より優れたセキュリティを提供することにより,エッジコンピューティングのセキュリティを向上させることができる。
論文 参考訳(メタデータ) (2024-05-14T16:40:37Z) - Training Neural Networks from Scratch with Parallel Low-Rank Adapters [46.764982726136054]
計算ノード間の複数の低ランクヘッドの並列トレーニングを実現するために設計された,新しい双方向最適化アルゴリズムである LoRA-the-Explorer (LTE) を導入する。
我々のアプローチには、様々なビジョンデータセットを用いたビジョントランスフォーマーの広範な実験が含まれており、LTEが標準の事前トレーニングと競合していることが示されている。
論文 参考訳(メタデータ) (2024-02-26T18:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。