論文の概要: IoT-MCP: Bridging LLMs and IoT Systems Through Model Context Protocol
- arxiv url: http://arxiv.org/abs/2510.01260v1
- Date: Thu, 25 Sep 2025 08:35:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.765966
- Title: IoT-MCP: Bridging LLMs and IoT Systems Through Model Context Protocol
- Title(参考訳): IoT-MCP: モデルコンテキストプロトコルによるLLMとIoTシステムのブリッジ
- Authors: Ningyuan Yang, Guanliang Lyu, Mingchen Ma, Yiyi Lu, Yiming Li, Zhihui Gao, Hancheng Ye, Jianyi Zhang, Tingjun Chen, Yiran Chen,
- Abstract要約: IoT-MCPは、エッジデプロイサーバを通じてモデルコンテキストプロトコル(MCP)を実装する新しいフレームワークである。
この作業は、オープンソースの統合フレームワークと、LLM-IoTシステムの標準化された評価方法論の両方を提供する。
- 参考スコア(独自算出の注目度): 25.655629459993907
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The integration of Large Language Models (LLMs) with Internet-of-Things (IoT) systems faces significant challenges in hardware heterogeneity and control complexity. The Model Context Protocol (MCP) emerges as a critical enabler, providing standardized communication between LLMs and physical devices. We propose IoT-MCP, a novel framework that implements MCP through edge-deployed servers to bridge LLMs and IoT ecosystems. To support rigorous evaluation, we introduce IoT-MCP Bench, the first benchmark containing 114 Basic Tasks (e.g., ``What is the current temperature?'') and 1,140 Complex Tasks (e.g., ``I feel so hot, do you have any ideas?'') for IoT-enabled LLMs. Experimental validation across 22 sensor types and 6 microcontroller units demonstrates IoT-MCP's 100% task success rate to generate tool calls that fully meet expectations and obtain completely accurate results, 205ms average response time, and 74KB peak memory footprint. This work delivers both an open-source integration framework (https://github.com/Duke-CEI-Center/IoT-MCP-Servers) and a standardized evaluation methodology for LLM-IoT systems.
- Abstract(参考訳): 大規模言語モデル(LLM)とIoT(Internet-of-Things)システムとの統合は、ハードウェアの不均一性と制御の複雑さにおいて大きな課題に直面している。
Model Context Protocol (MCP) は重要なイネーブラーとして登場し、LCMと物理デバイス間の標準化された通信を提供する。
LLMとIoTエコシステムを橋渡しするエッジデプロイサーバを通じてMPPを実装する新しいフレームワークであるIoT-MCPを提案する。
厳密な評価をサポートするために、IoT対応LLM用の114のベーシックタスク(eg , ``What is the current temperature?'')と1,140の複雑なタスク(eg , ``I feel so hot, you have any ideas?')を含む最初のベンチマークであるIoT-MCP Benchを紹介します。
22のセンサタイプと6つのマイクロコントローラユニットにわたる実験的な検証は、IoT-MCPの100%タスク成功率を示し、期待を完全に満たし、完全に正確な結果を得るツールコール、平均応答時間205ms、74KBのピークメモリフットプリントを生成する。
この作業は、オープンソースの統合フレームワーク(https://github.com/Duke-CEI-Center/IoT-MCP-Servers)と、LLM-IoTシステムの標準化された評価方法論の両方を提供する。
関連論文リスト
- LiveMCPBench: Can Agents Navigate an Ocean of MCP Tools? [50.60770039016318]
モデルコンテキストプロトコル(MCP)エージェントをベンチマークする最初の総合ベンチマークであるLiveMCPBenchを紹介する。
LiveMCPBenchは、MPPエコシステムに根ざした95の現実世界のタスクで構成されている。
評価は10の先行モデルを対象としており、最高の性能のモデルが78.95%の成功率に達した。
論文 参考訳(メタデータ) (2025-08-03T14:36:42Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - LLM-Based Threat Detection and Prevention Framework for IoT Ecosystems [6.649910168731417]
本稿では,IoT環境における包括的脅威検出と防止のためのLarge Language Model(LLM)ベースのフレームワークを提案する。
このシステムは、IoT固有のデータセットに微調整された軽量LLMを統合し、リアルタイム異常検出と自動化されたコンテキスト認識緩和戦略を実現する。
シミュレーションIoT環境での実験結果は、従来のセキュリティメソッドよりも検出精度、応答レイテンシ、リソース効率が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-05-01T01:18:54Z) - GPIoT: Tailoring Small Language Models for IoT Program Synthesis and Development [15.109121724888382]
GPIoTは、ローカルにデプロイ可能なSLM(Small Language Models)を微調整することで、IoTアプリケーションのためのコード生成システムである。
GPIoTは、IoT専用データセット上にローカルにデプロイ可能なSLM(Small Language Models)を微調整することで、IoTアプリケーションのためのコード生成システムである。
論文 参考訳(メタデータ) (2025-03-02T01:55:40Z) - EmbedGenius: Towards Automated Software Development for Generic Embedded IoT Systems [11.524778651869044]
本稿では,汎用IoTシステムのための,最初の完全自動化ソフトウェア開発プラットフォームであるEmbedGeniusを紹介する。
鍵となるアイデアは、Large Language Models(LLM)の推論能力と組み込みシステムの専門知識を活用して、ループ内ハードウェア開発プロセスを自動化することである。
71のモジュールと350以上のIoTタスクを備えた4つのメインストリームの組み込み開発プラットフォームで、EmbedGeniusのパフォーマンスを評価しました。
論文 参考訳(メタデータ) (2024-12-12T08:34:12Z) - IoT-LM: Large Multisensory Language Models for the Internet of Things [70.74131118309967]
IoTエコシステムは、モーション、サーマル、ジオロケーション、イメージング、ディープ、センサー、オーディオといった、現実世界のモダリティの豊富なソースを提供する。
機械学習は、IoTデータを大規模に自動的に処理する豊富な機会を提供する。
IoTエコシステムに適した,オープンソースの大規模マルチセンサ言語モデルであるIoT-LMを紹介します。
論文 参考訳(メタデータ) (2024-07-13T08:20:37Z) - LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution [18.816077341295628]
我々は,IoTデバイス間の効果的なコラボレーションを可能にするタスク指向AIフレームワークであるLLMindを紹介する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMとドメイン固有のAIモジュールを統合する。
複数のドメイン固有のAIモジュールとIoTデバイスのコラボレーションを含む複雑なタスクは、コントロールスクリプトを介して実行される。
論文 参考訳(メタデータ) (2023-12-14T14:57:58Z) - Distributed Inference and Fine-tuning of Large Language Models Over The
Internet [91.00270820533272]
大規模言語モデル(LLM)は、多くのNLPタスクで有用であり、サイズが向上する。
これらのモデルはハイエンドのハードウェアを必要とするため、ほとんどの研究者にはアクセスできない。
本研究では,システムスループットの最大化のためにデバイスを自動的に割り当てるフォールトトレラント推論アルゴリズムとロードバランシングプロトコルを開発する。
論文 参考訳(メタデータ) (2023-12-13T18:52:49Z) - Optimizing Resource-Efficiency for Federated Edge Intelligence in IoT
Networks [96.24723959137218]
We study a edge intelligence-based IoT network that a set of edge server learn a shared model using federated learning (FL)。
フェデレーションエッジインテリジェンス(FEI)と呼ばれる新しいフレームワークを提案し、エッジサーバがIoTネットワークのエネルギーコストに応じて必要なデータサンプル数を評価できるようにする。
提案アルゴリズムがIoTネットワークのトポロジ的情報を漏洩したり開示したりしないことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。