論文の概要: IoT-LLM: Enhancing Real-World IoT Task Reasoning with Large Language Models
- arxiv url: http://arxiv.org/abs/2410.02429v2
- Date: Fri, 4 Oct 2024 03:30:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 03:20:51.334739
- Title: IoT-LLM: Enhancing Real-World IoT Task Reasoning with Large Language Models
- Title(参考訳): IoT-LLM: 大規模言語モデルによる実世界のIoTタスク推論の強化
- Authors: Tuo An, Yunjiao Zhou, Han Zou, Jianfei Yang,
- Abstract要約: 大規模言語モデル(LLM)は、テキストや視覚領域にまたがる顕著な能力を示してきたが、しばしば物理法則に違反した出力を生成する。
人間の認識にインスパイアされた我々は、IoTセンサデータと、物理的な世界でのIoTタスク推論に関する関連する知識を用いて、知覚能力の向上によるLLMの強化について検討する。
我々は,IoT-LLMがLLMによるIoTタスクの推論性能を大幅に向上し,従来の手法と比較して,各タスクの平均65%の改善を実現していることを示す。
- 参考スコア(独自算出の注目度): 15.779982408779945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities across textual and visual domains but often generate outputs that violate physical laws, revealing a gap in their understanding of the physical world. Inspired by human cognition, where perception is fundamental to reasoning, we explore augmenting LLMs with enhanced perception abilities using Internet of Things (IoT) sensor data and pertinent knowledge for IoT task reasoning in the physical world. In this work, we systematically study LLMs capability to address real-world IoT tasks by augmenting their perception and knowledge base, and then propose a unified framework, IoT-LLM, to enhance such capability. In IoT-LLM, we customize three steps for LLMs: preprocessing IoT data into formats amenable to LLMs, activating their commonsense knowledge through chain-of-thought prompting and specialized role definitions, and expanding their understanding via IoT-oriented retrieval-augmented generation based on in-context learning. To evaluate the performance, We design a new benchmark with five real-world IoT tasks with different data types and reasoning difficulties and provide the benchmarking results on six open-source and close-source LLMs. Experimental results demonstrate the limitations of existing LLMs with naive textual inputs that cannot perform these tasks effectively. We show that IoT-LLM significantly enhances the performance of IoT tasks reasoning of LLM, such as GPT-4, achieving an average improvement of 65% across various tasks against previous methods. The results also showcase LLMs ability to comprehend IoT data and the physical law behind data by providing a reasoning process. Limitations of our work are claimed to inspire future research in this new era.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキストと視覚領域にまたがる顕著な能力を示してきたが、しばしば物理法則に違反した出力を生成し、物理世界に対する理解のギャップを明らかにしている。
知覚が推論の基礎となる人間の認知に触発されて,モノのインターネット(IoT)センサデータを用いた知覚能力の向上と,物理世界でのIoTタスク推論に関する関連する知識について検討する。
本研究では,実世界のIoTタスクに対処するLLMの能力を,認識と知識ベースを増強して体系的に研究し,その能力を高めるために統合されたフレームワークであるIoT-LLMを提案する。
IoT-LLMでは、IoTデータをLLMに対応可能なフォーマットにプリプロセッシングし、チェーン・オブ・シンクレットのプロンプトと特殊な役割定義を通じてコモンセンスの知識を活性化し、コンテキスト内学習に基づくIoT指向の検索強化生成を通じて理解を深める、という3つのステップをカスタマイズします。
性能を評価するため、我々は、異なるデータタイプと推論困難を持つ5つの実世界のIoTタスクを備えた新しいベンチマークを設計し、6つのオープンソースおよびオープンソースLLM上でベンチマーク結果を提供する。
実験の結果,これらのタスクを効果的に実行できないテキスト入力による既存のLLMの限界が示された。
GPT-4 などの LLM を推論した IoT タスクの性能は IoT-LLM により大幅に向上し,従来の手法と比較して,各タスクの平均 65% の改善が達成された。
結果は、推論プロセスを提供することで、IoTデータとデータの背後にある物理法則を理解するLLMの能力を示す。
我々の研究の限界は、この新時代の将来の研究に刺激を与えると主張されている。
関連論文リスト
- LLM-based event abstraction and integration for IoT-sourced logs [2.6811507121199325]
本稿では,イベント抽象化と統合において,LLM(Large Language Models)を活用する可能性について述べる。
当社のアプローチは、生のセンサ読み取りからイベントレコードを作成し、複数のIoTソースからのログを単一のイベントログにマージすることを目的としています。
高齢者介護と縦断的健康モニタリングにおけるIoT応用のケーススタディとして,イベント抽象化におけるLCMの機能を示す。
論文 参考訳(メタデータ) (2024-09-05T12:38:13Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Penetrative AI: Making LLMs Comprehend the Physical World [3.0266193917041306]
大きな言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示しています。
本稿は,IoTセンサとアクチュエータを用いて,LLMを物理的世界と相互作用し,推論するために拡張する方法について検討する。
論文 参考訳(メタデータ) (2023-10-14T15:48:15Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Large Language Models as Data Preprocessors [9.99065004972981]
大規模言語モデル (LLM) は人工知能において大きな進歩を遂げている。
本研究では、データマイニングおよび分析アプリケーションにおいて重要な段階である、データ前処理におけるその可能性について検討する。
我々は,最先端のプロンプトエンジニアリング技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - Knowledge-Augmented Reasoning Distillation for Small Language Models in
Knowledge-Intensive Tasks [90.11273439036455]
大規模言語モデル(LLM)は知識集約推論タスクにおいて有望なパフォーマンスを示している。
外部知識ベースから得られた知識を付加したLPMから理性を生成するための,小型LMを微調整する新しい手法であるKARDを提案する。
我々は,KARDが知識集約型推論データセットにおいて,小さなT5モデルとGPTモデルの性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2023-05-28T13:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。