論文の概要: Adaptive and Robust Data Poisoning Detection and Sanitization in Wearable IoT Systems using Large Language Models
- arxiv url: http://arxiv.org/abs/2511.02894v1
- Date: Tue, 04 Nov 2025 15:59:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.200773
- Title: Adaptive and Robust Data Poisoning Detection and Sanitization in Wearable IoT Systems using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたウェアラブルIoTシステムにおける適応的・ロバストなデータ汚染検出と消毒
- Authors: W. K. M Mithsara, Ning Yang, Ahmed Imteaj, Hussein Zangoti, Abdur R. Shahid,
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いてHARシステムにおける中毒検出と衛生を行う新しいフレームワークを提案する。
提案手法では, テクストロールプレイのプロンプトが組み込まれており, LLMは, センサ異常の文脈化と評価に専門家の役割を担っている。
フレームワークを広範囲に評価し,検出精度,衛生品質,レイテンシ,通信コストを定量化する。
- 参考スコア(独自算出の注目度): 4.285609194445095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread integration of wearable sensing devices in Internet of Things (IoT) ecosystems, particularly in healthcare, smart homes, and industrial applications, has required robust human activity recognition (HAR) techniques to improve functionality and user experience. Although machine learning models have advanced HAR, they are increasingly susceptible to data poisoning attacks that compromise the data integrity and reliability of these systems. Conventional approaches to defending against such attacks often require extensive task-specific training with large, labeled datasets, which limits adaptability in dynamic IoT environments. This work proposes a novel framework that uses large language models (LLMs) to perform poisoning detection and sanitization in HAR systems, utilizing zero-shot, one-shot, and few-shot learning paradigms. Our approach incorporates \textit{role play} prompting, whereby the LLM assumes the role of expert to contextualize and evaluate sensor anomalies, and \textit{think step-by-step} reasoning, guiding the LLM to infer poisoning indicators in the raw sensor data and plausible clean alternatives. These strategies minimize reliance on curation of extensive datasets and enable robust, adaptable defense mechanisms in real-time. We perform an extensive evaluation of the framework, quantifying detection accuracy, sanitization quality, latency, and communication cost, thus demonstrating the practicality and effectiveness of LLMs in improving the security and reliability of wearable IoT systems.
- Abstract(参考訳): IoT(Internet of Things)エコシステム、特にヘルスケア、スマートホーム、産業アプリケーションにおいて、ウェアラブルセンサーデバイスが広く統合されているため、機能とユーザエクスペリエンスを改善するために、堅牢なヒューマンアクティビティ認識(HAR)技術が必要になった。
機械学習モデルには高度なHARがあるが、これらのシステムのデータの完全性と信頼性を損なうようなデータ中毒攻撃の影響がますます強くなっている。
このような攻撃に対して防御する従来のアプローチは、大きなラベル付きデータセットによるタスク固有の広範なトレーニングを必要とすることが多く、動的IoT環境の適応性を制限する。
本研究では、大規模言語モデル(LLM)を用いて、ゼロショット、ワンショット、および少数ショット学習パラダイムを利用して、HARシステムにおける中毒検出および衛生化を行う新しいフレームワークを提案する。
提案手法は, センサ異常の文脈化と評価に専門家の役割を前提とした「textit{role play」と, 「textit{think step-by-step} reasoning」を併用し, LLMが生センサデータに有毒な指標を推測し, クリーンな代替品を提示する。
これらの戦略は、広範囲なデータセットのキュレーションへの依存を最小限に抑え、リアルタイムに堅牢で適応可能な防御機構を実現する。
このフレームワークを広範囲に評価し,検出精度,衛生品質,レイテンシ,通信コストを定量化し,ウェアラブルIoTシステムのセキュリティと信頼性向上におけるLCMの実用性と有効性を示す。
関連論文リスト
- From Physics to Machine Learning and Back: Part II - Learning and Observational Bias in PHM [52.64097278841485]
物理インフォームドモデリングとデータストラテジーによる学習と観察バイアスの導入は、モデルを物理的に一貫した信頼性のある予測へと導くことができるかを検討する。
メタラーニングや少数ショットラーニングなどの高速適応手法をドメイン一般化手法とともに検討する。
論文 参考訳(メタデータ) (2025-09-25T14:15:43Z) - Securing Radiation Detection Systems with an Efficient TinyML-Based IDS for Edge Devices [3.5216201054915692]
放射線検出システム(RDS)は、様々な環境において公衆の安全を確保する上で重要な役割を担っている。
これらのシステムはますますサイバー攻撃に弱い。
本稿では,資源制約環境に適した新しい合成放射線データセットと侵入検知システム(IDS)を提案する。
論文 参考訳(メタデータ) (2025-09-01T16:26:37Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - LSM-2: Learning from Incomplete Wearable Sensor Data [65.58595667477505]
本稿では,Adaptive and Inherited Masking (AIM)を用いた第2世代Large Sensor Model (LSM-2)を紹介する。
AIMは明示的な計算を必要とせず、不完全なデータから直接堅牢な表現を学習する。
AIMを用いた LSM-2 は, 分類, 回帰, 生成モデルなど, 多様なタスクにまたがる最高の性能を実現する。
論文 参考訳(メタデータ) (2025-06-05T17:57:11Z) - LLM-Based Threat Detection and Prevention Framework for IoT Ecosystems [6.649910168731417]
本稿では,IoT環境における包括的脅威検出と防止のためのLarge Language Model(LLM)ベースのフレームワークを提案する。
このシステムは、IoT固有のデータセットに微調整された軽量LLMを統合し、リアルタイム異常検出と自動化されたコンテキスト認識緩和戦略を実現する。
シミュレーションIoT環境での実験結果は、従来のセキュリティメソッドよりも検出精度、応答レイテンシ、リソース効率が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-05-01T01:18:54Z) - LENS-XAI: Redefining Lightweight and Explainable Network Security through Knowledge Distillation and Variational Autoencoders for Scalable Intrusion Detection in Cybersecurity [0.0]
本研究は軽量説明可能ネットワークセキュリティフレームワーク(LENS-XAI)を紹介する。
LENS-XAIは、堅牢な侵入検知と、拡張された解釈可能性とスケーラビリティを組み合わせる。
本研究は, 計算効率, 特徴解釈可能性, 実世界の応用性に対処することで, IDSの進歩に大きく貢献する。
論文 参考訳(メタデータ) (2025-01-01T10:00:49Z) - Automated Phishing Detection Using URLs and Webpages [35.66275851732625]
LLMエージェントフレームワークの開発により,従来の参照型フィッシング検出の制約に対処する。
このエージェントは、Large Language Modelsを利用して、積極的にオンライン情報を取得し、活用する。
我々の手法は0.945の精度で達成され、既存の解(DynaPhish)を0.445で大幅に上回っている。
論文 参考訳(メタデータ) (2024-08-03T05:08:27Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。